goku593 escribió:@kailkatarn el tema aquí es que las tecnologías de Nvidia que históricamente se han quedado en humo no eran más que recursos gráficos y puro Software, pongamos el Hairworks o el PhysX, pero ahora se trata de Hardware dedicado. Los Tensor Core están ahí, y los RT también. Existen y se tienen que poner en marcha. Nvidia ya habrá tratado esto con las más importantes desarrolladoras y estoy seguro que ya están trabajando en ellos para exprimirlos. Pero seamos pacientes. Ahora es la etapa de salida de Stock de Pascal.
KailKatarn escribió:goku593 escribió:@kailkatarn el tema aquí es que las tecnologías de Nvidia que históricamente se han quedado en humo no eran más que recursos gráficos y puro Software, pongamos el Hairworks o el PhysX, pero ahora se trata de Hardware dedicado. Los Tensor Core están ahí, y los RT también. Existen y se tienen que poner en marcha. Nvidia ya habrá tratado esto con las más importantes desarrolladoras y estoy seguro que ya están trabajando en ellos para exprimirlos. Pero seamos pacientes. Ahora es la etapa de salida de Stock de Pascal.
Sí, eso es cierto, pero todo dependerá de como acabe implementado y que implique como bien dices. Si es que no hay nada como dar tiempo al tiempo, es el que nos sacará de dudas si son una buena compra o no. Un saludo y ya contarás que tal la bicha, que la disfrutes!
adriano_99 escribió:En serio creéis que Nvidia se ha desecho del nombre GeForce para vender humo?
Tenéis una idea de lo que cuesta conseguir una marca que todo el mundo relacione con calidad?
Lo llevan años usando para todo: gráficas, software, GeForce experiencia, GeForce pertner, etc...
Y todo eso para poner el nombre de una tecnología que usarán dos juegos y se olvidará?
goku593 escribió:adriano_99 escribió:En serio creéis que Nvidia se ha desecho del nombre GeForce para vender humo?
Tenéis una idea de lo que cuesta conseguir una marca que todo el mundo relacione con calidad?
Lo llevan años usando para todo: gráficas, software, GeForce experiencia, GeForce pertner, etc...
Y todo eso para poner el nombre de una tecnología que usarán dos juegos y se olvidará?
Eso es lo de menos. Cuando tienes una posición firme en el mercado, y te conocen, puedes hacer lo que quieras e innovar. Aquí la cuestión es la INVERSIÓN que se ha llevado a cabo.
adriano_99 escribió:goku593 escribió:adriano_99 escribió:En serio creéis que Nvidia se ha desecho del nombre GeForce para vender humo?
Tenéis una idea de lo que cuesta conseguir una marca que todo el mundo relacione con calidad?
Lo llevan años usando para todo: gráficas, software, GeForce experiencia, GeForce pertner, etc...
Y todo eso para poner el nombre de una tecnología que usarán dos juegos y se olvidará?
Eso es lo de menos. Cuando tienes una posición firme en el mercado, y te conocen, puedes hacer lo que quieras e innovar. Aquí la cuestión es la INVERSIÓN que se ha llevado a cabo.
Estas muy equivocado, tener un nombre reconocible es FUNDAMENTAL para una empresa.
es la razón por la que ubisoft sigue haciendo assassins creed cuando los últimos podrían ser nuevas ip perfectamente pero el nombre de assassins es muy caro.
goku593 escribió:
@papatuelo "NVIDIA DLSS es una tecnología basada en las DNN (Deep Neural Networks) que posee NVIDIA, que emplea la IA para realizar una serie de tareas que NVIDIA ya se ha encargado de hacer aprender a esta IA. En el caso de DLSS, la DNN de NVIDIA es la que se encarga de mejorar la imagen representada en pantalla, mejorando las áreas de la imagen que se verían borrosas con otras técnicas como TAA (Temporal Anti Alising) y, a la vez, incrementando el rendimiento general de las tarjetas gráficas que emplean la arquitectura Turing.
Para entrenar a la DNN, NVIDIA se ha dedicado a recoger miles de imágenes de referencia, que se han renderizado como 64x SuperSampling. Esto significa que cada píxel de la imagen se trata 64 veces de diferente manera, y el resultado final se combina en una imagen con gran realismo. A partir de ahí, hay que entrenar a la DNN para que el resultado final que se obtiene con el DLSS sea lo más parecido a la imagen obtenida con el 64x SuperSampling. Esta es parte de la labor de los núcleos Tensor."
kikomanco escribió:Ya me han enviado la gráfica PCcomponentes, mañana si no pasa nada la estaré recogiendo
papatuelo escribió:goku593 escribió:
@papatuelo "NVIDIA DLSS es una tecnología basada en las DNN (Deep Neural Networks) que posee NVIDIA, que emplea la IA para realizar una serie de tareas que NVIDIA ya se ha encargado de hacer aprender a esta IA. En el caso de DLSS, la DNN de NVIDIA es la que se encarga de mejorar la imagen representada en pantalla, mejorando las áreas de la imagen que se verían borrosas con otras técnicas como TAA (Temporal Anti Alising) y, a la vez, incrementando el rendimiento general de las tarjetas gráficas que emplean la arquitectura Turing.
Para entrenar a la DNN, NVIDIA se ha dedicado a recoger miles de imágenes de referencia, que se han renderizado como 64x SuperSampling. Esto significa que cada píxel de la imagen se trata 64 veces de diferente manera, y el resultado final se combina en una imagen con gran realismo. A partir de ahí, hay que entrenar a la DNN para que el resultado final que se obtiene con el DLSS sea lo más parecido a la imagen obtenida con el 64x SuperSampling. Esta es parte de la labor de los núcleos Tensor."
Es que parece que te crees que en el driver se pasan todas los posibles frames de un juego renderizados a 4K X64.
De verdad que no te aclaras, ¿¿¿como que supersamplig 64X significa que la imagen se trata de 64 formas diferentes???
Supersamplin 64X significa que la imagen se renderiza a una resolución interna 64 veces mayor que la objetivo.
¿Pero no te das cuenta de lo que pesaría ese driver?
Y ya que mencionas TAA, esa es una de las quejas que he expresado más de una vez, muestran la imagen con TAA (un antialiasing que emborrona un monton la imagen) y la enfrentan al DLSS.
Es cierto que parece ser que hay situaciones en las que el DLSS puede llegar a obtener imagenes incluso mejoradas, pero de ahí a decir que no hay diferencia va un trecho
Lo que se hace, o al menos así lo entiendo yo, es generar un "algoritmo" de reescalado basado en la info extraida por Saturno 5, sé que no es exactamente un algoritmo pero los profanos no creo que encontremos la diferencia.
Pero sigue siendo un reescalado.
Y para muestra un botón:
goku593 escribió:papatuelo escribió:goku593 escribió:
@papatuelo "NVIDIA DLSS es una tecnología basada en las DNN (Deep Neural Networks) que posee NVIDIA, que emplea la IA para realizar una serie de tareas que NVIDIA ya se ha encargado de hacer aprender a esta IA. En el caso de DLSS, la DNN de NVIDIA es la que se encarga de mejorar la imagen representada en pantalla, mejorando las áreas de la imagen que se verían borrosas con otras técnicas como TAA (Temporal Anti Alising) y, a la vez, incrementando el rendimiento general de las tarjetas gráficas que emplean la arquitectura Turing.
Para entrenar a la DNN, NVIDIA se ha dedicado a recoger miles de imágenes de referencia, que se han renderizado como 64x SuperSampling. Esto significa que cada píxel de la imagen se trata 64 veces de diferente manera, y el resultado final se combina en una imagen con gran realismo. A partir de ahí, hay que entrenar a la DNN para que el resultado final que se obtiene con el DLSS sea lo más parecido a la imagen obtenida con el 64x SuperSampling. Esta es parte de la labor de los núcleos Tensor."
Es que parece que te crees que en el driver se pasan todas los posibles frames de un juego renderizados a 4K X64.
De verdad que no te aclaras, ¿¿¿como que supersamplig 64X significa que la imagen se trata de 64 formas diferentes???
Supersamplin 64X significa que la imagen se renderiza a una resolución interna 64 veces mayor que la objetivo.
¿Pero no te das cuenta de lo que pesaría ese driver?
Y ya que mencionas TAA, esa es una de las quejas que he expresado más de una vez, muestran la imagen con TAA (un antialiasing que emborrona un monton la imagen) y la enfrentan al DLSS.
Es cierto que parece ser que hay situaciones en las que el DLSS puede llegar a obtener imagenes incluso mejoradas, pero de ahí a decir que no hay diferencia va un trecho
Lo que se hace, o al menos así lo entiendo yo, es generar un "algoritmo" de reescalado basado en la info extraida por Saturno 5, sé que no es exactamente un algoritmo pero los profanos no creo que encontremos la diferencia.
Pero sigue siendo un reescalado.
Y para muestra un botón:
https://hardzone.es/2018/10/06/que-es-n ... to-juegos/
Explicáselo a este señor. No a mí.
karlostek escribió:kikomanco escribió:Ya me han enviado la gráfica PCcomponentes, mañana si no pasa nada la estaré recogiendo
cual al final?
papatuelo escribió:goku593 escribió:papatuelo escribió:
Es que parece que te crees que en el driver se pasan todas los posibles frames de un juego renderizados a 4K X64.
De verdad que no te aclaras, ¿¿¿como que supersamplig 64X significa que la imagen se trata de 64 formas diferentes???
Supersamplin 64X significa que la imagen se renderiza a una resolución interna 64 veces mayor que la objetivo.
¿Pero no te das cuenta de lo que pesaría ese driver?
Y ya que mencionas TAA, esa es una de las quejas que he expresado más de una vez, muestran la imagen con TAA (un antialiasing que emborrona un monton la imagen) y la enfrentan al DLSS.
Es cierto que parece ser que hay situaciones en las que el DLSS puede llegar a obtener imagenes incluso mejoradas, pero de ahí a decir que no hay diferencia va un trecho
Lo que se hace, o al menos así lo entiendo yo, es generar un "algoritmo" de reescalado basado en la info extraida por Saturno 5, sé que no es exactamente un algoritmo pero los profanos no creo que encontremos la diferencia.
Pero sigue siendo un reescalado.
Y para muestra un botón:
https://hardzone.es/2018/10/06/que-es-n ... to-juegos/
Explicáselo a este señor. No a mí.
Que un artículo random en internet diga una cosa no quiere decir que sea cierta.
O es supersampling o trata la imagen de 64 formas diferentes, pero no son sinónimos. Yo realmente no sé cual es la buena, pero viendo lo que dijo otro usuario más arriba me inclino por pensar que es supersamplig.
Por lo demás, ¿qué se usa la IA? Sí, ¿qué se usa para mejorar la imagen? Sí. Pero el problema que yo le veo es que tu coges y hablas de incremento de rendimiento, que de ninguna forma existe. Existe incremente en la tasa de frames pero por no renderizar a la misma resolución interna si no a un 44% de está y luego usar la información que ha aprendido la IA y que se a incorporado al driver para reescalar esa imagen de la mejor manera posible.
goku593 escribió:papatuelo escribió:goku593 escribió:
https://hardzone.es/2018/10/06/que-es-n ... to-juegos/
Explicáselo a este señor. No a mí.
Que un artículo random en internet diga una cosa no quiere decir que sea cierta.
O es supersampling o trata la imagen de 64 formas diferentes, pero no son sinónimos. Yo realmente no sé cual es la buena, pero viendo lo que dijo otro usuario más arriba me inclino por pensar que es supersamplig.
Por lo demás, ¿qué se usa la IA? Sí, ¿qué se usa para mejorar la imagen? Sí. Pero el problema que yo le veo es que tu coges y hablas de incremento de rendimiento, que de ninguna forma existe. Existe incremente en la tasa de frames pero por no renderizar a la misma resolución interna si no a un 44% de está y luego usar la información que ha aprendido la IA y que se a incorporado al driver para reescalar esa imagen de la mejor manera posible.
Por ende,existe mejora de rendimiento.
goku593 escribió:papatuelo escribió:goku593 escribió:
https://hardzone.es/2018/10/06/que-es-n ... to-juegos/
Explicáselo a este señor. No a mí.
Que un artículo random en internet diga una cosa no quiere decir que sea cierta.
O es supersampling o trata la imagen de 64 formas diferentes, pero no son sinónimos. Yo realmente no sé cual es la buena, pero viendo lo que dijo otro usuario más arriba me inclino por pensar que es supersamplig.
Por lo demás, ¿qué se usa la IA? Sí, ¿qué se usa para mejorar la imagen? Sí. Pero el problema que yo le veo es que tu coges y hablas de incremento de rendimiento, que de ninguna forma existe. Existe incremente en la tasa de frames pero por no renderizar a la misma resolución interna si no a un 44% de está y luego usar la información que ha aprendido la IA y que se a incorporado al driver para reescalar esa imagen de la mejor manera posible.
Por ende,existe mejora de rendimiento.
goku593 escribió:Por ende,existe mejora de rendimiento.
kikomanco escribió:una calidad de imagen prácticamente igual? Ya sabemos que no es 4k nativo, tú has puesto esa imagen estática, y según han analizado los expertos, es precisamente en ese punto, el único momento que se nota, en las imágenes estáticas, en las imágenes en movimiento es imperceptible el 4k nativo, con el reescalado con DLSS, no dicho por mi, dicho por un montón de artículos que he leído en la Red
m0wly escribió:goku593 escribió:Por ende,existe mejora de rendimiento.
No, la grafica no tiene mejora de rendimiento. No rinde un 40 o 50%+ por arte de magia. Solo que procesa imagenes que requieren menos calculos.
Es como si dices que una grafica tiene mejora de rendimiento por jugar a 1080p respecto de jugar a 1440p porque le puedes poner mas filtros. No. Lo que consigues son mas FPS a igualdad de filtros por tratar con imagenes que requieren menos calculos.
kikomanco escribió:m0wly escribió:goku593 escribió:Por ende,existe mejora de rendimiento.
No, la grafica no tiene mejora de rendimiento. No rinde un 40 o 50%+ por arte de magia. Solo que procesa imagenes que requieren menos calculos.
Es como si dices que una grafica tiene mejora de rendimiento por jugar a 1080p respecto de jugar a 1440p porque le puedes poner mas filtros. No. Lo que consigues son mas FPS a igualdad de filtros por tratar con imagenes que requieren menos calculos.
Eso tampoco es cierto, también requiere cálculos, pero no de la manera que hasta ahora se hacía con los cudas cores, si no a través de los tensor cores, si una imagen tratada con DLSS es casi idéntico y prácticamente imperceptible del 4k nativo y encima con mejor calidad visual que con TAA, que más os da cómo se haga si la ganancia de rendimiento esta ahí y es real?
hace casi un mes colgué 3 capturas de la demo del final fantasy 15, una sin AA otra con AA y otra con DLSS, adivinas cual se veía mejor? Pues luego más tarde las vuelvo a colgar, y son imágenes estáticas, ahí también tienes la demo técnica de infiltrator, y prácticamente no hay diferencia alguna entre 4k nativo y DLSSm0wly escribió:kikomanco escribió:m0wly escribió:
No, la grafica no tiene mejora de rendimiento. No rinde un 40 o 50%+ por arte de magia. Solo que procesa imagenes que requieren menos calculos.
Es como si dices que una grafica tiene mejora de rendimiento por jugar a 1080p respecto de jugar a 1440p porque le puedes poner mas filtros. No. Lo que consigues son mas FPS a igualdad de filtros por tratar con imagenes que requieren menos calculos.
Eso tampoco es cierto, también requiere cálculos, pero no de la manera que hasta ahora se hacía con los cudas cores, si no a través de los tensor cores, si una imagen tratada con DLSS es casi idéntico y prácticamente imperceptible del 4k nativo y encima con mejor calidad visual que con TAA, que más os da cómo se haga si la ganancia de rendimiento esta ahí y es real?
Tergiversas.
No existe ganancia de rendimiento por aplicar DLSS.
Pasar de 4K nativo a 4K reescalado no te da una ganancia de rendimiento. La grafica rinde lo mismo, obviamente. No hace falta ser un "in-jiniero", como dices tu, para darse cuenta.
Tergiversas para tratar de llevar razon. Apoyas tus argumentos en algo que no puedes probar. Y es que una imagen nativa sea igual a una reescalada con DLSS.
De momento, las pruebas que hay es que, en estatico hay una diferencia importante. Veremos con los pocos juegos que hagan uso de DLSS como es la cosa.
goku593 escribió:RTX 2080 NO DLSS --> 60 FPS.
RTX 2080 DLSS ON --> 75 FPS.
Mejora de rendimiento. Punto a costa de perder calidad de imagen, sea mucha o poca, pero se pierde calidad.
goku593 escribió:RTX 2080 NO DLSS --> 60 FPS.
RTX 2080 DLSS ON --> 75 FPS.
Mejora de rendimiento. Punto.
kikomanco escribió:Totalmente de acuerdo contigo compañero, mira el vídeo que he dejado más arriba, de Michael Quesada, pero nada, estos in-jinieros de barra saben más que ellos y más que cualquier periodista especializado en el sector que escribe un artículo y lo cuelga en una página especializada en el mundo del PC
cristiano.88 escribió:goku593 escribió:RTX 2080 NO DLSS --> 60 FPS.
RTX 2080 DLSS ON --> 75 FPS.
Mejora de rendimiento. Punto a costa de perder calidad de imagen, sea mucha o poca, pero se pierde calidad.
goku593 escribió:cristiano.88 escribió:goku593 escribió:RTX 2080 NO DLSS --> 60 FPS.
RTX 2080 DLSS ON --> 75 FPS.
Mejora de rendimiento. Punto a costa de perder calidad de imagen, sea mucha o poca, pero se pierde calidad.
Bueno, por un 5% de pérdida de calidad gano un 30% de rendimiento.
goku593 escribió:RTX 2080 NO DLSS --> 60 FPS.
RTX 2080 DLSS ON --> 75 FPS.
Mejora de rendimiento. Punto.
goku593 escribió:RTX 2080 NO DLSS --> 60 FPS.
RTX 2080 DLSS ON --> 75 FPS.
Mejora de rendimiento. Punto.
exter escribió:goku593 escribió:RTX 2080 NO DLSS --> 60 FPS.
RTX 2080 DLSS ON --> 75 FPS.
Mejora de rendimiento. Punto.
Con el Rainbow Six si quieres pueder probar algo parecido. Antes se le llamaba filtro temporal y creo que lo pasaron a T-AA.
La base de la tecnología es esa, lo que nVidia va a hacer es acelerar ese cálculo de AA a partir de no se que magia que no han explicado al detalle.
Yo espero que cuando salga en algun juego, salgan análisis serios de Anandtech o DigitalFoundry analizando el tema.
PD.
En la imagen que han puesto antes del Final Fantasy, yo no lo veo solo un 5% peor, lo veo mucho peor.
La imagen DLSS se ve muy borrosa.
albertoooooooooo escribió:goku593 escribió:RTX 2080 NO DLSS --> 60 FPS.
RTX 2080 DLSS ON --> 75 FPS.
Mejora de rendimiento. Punto.
Las gilipolleces que hay que leer...
goku593 escribió:exter escribió:goku593 escribió:RTX 2080 NO DLSS --> 60 FPS.
RTX 2080 DLSS ON --> 75 FPS.
Mejora de rendimiento. Punto.
Con el Rainbow Six si quieres pueder probar algo parecido. Antes se le llamaba filtro temporal y creo que lo pasaron a T-AA.
La base de la tecnología es esa, lo que nVidia va a hacer es acelerar ese cálculo de AA a partir de no se que magia que no han explicado al detalle.
Yo espero que cuando salga en algun juego, salgan análisis serios de Anandtech o DigitalFoundry analizando el tema.
PD.
En la imagen que han puesto antes del Final Fantasy, yo no lo veo solo un 5% peor, lo veo mucho peor.
La imagen DLSS se ve muy borrosa.
¿Serio Digital Foundry @exter? Vamos, es más serio Michel Quesada...xDD
A ver, que ya lejos de discusiones, por X pérdida de calidad, que no es tanta, se gana rendimiento. A efectos prácticos es una ganancia de rendimiento directa en el juego. Si en vez de 2K al 100%, es algo menos, vale, lo asumo.
Pero vamos, no sé por qué la gente se ofende, estamos hablando. Sin más.
Alberto no he faltado el respeto a nadie. Me gustaría lo mismo por tu parte. Si no sabes mantener una conversación de adulto, no dialogues.
Máxima de calidad: Intenta que tu contribución sea verdadera
III. No digas nada que creas que es falso
IV. No digas nada si no tienes pruebas suficientes de su veracidad
pakolo1977 escribió:Ayer estuve viendo completa la presentación de Agosto de las gráficas estas, para ver si lograba sacar algo en claro de esta gente y ver si estaban mintiendo mucho o no. No me pareció que dijera el chino grandes mentiras, o al menos eso creo. Lo que si estoy sacando en claro de todo esto, tanto de la presentación como del estado actual de las cosas, es que el chip está muy adelantado al software a todos los niveles, tanto que necesitaremos meses para poder verlo rendir bien y varias versiones de los juegos hasta que sean estables y rindan bien, hasta para juegos que no utilicen tecnologías nuevas, mirad si no lo que está pasando con los drivers 416. El software por ahora no pasa de ejemplos de código en plan académico, todo desarrollos nuevos sobre áreas de la computación que no están asentadas. Me ha entrado un poco de miedo al pensar que quizás el nuevo diseño de los tres tipos de núcleos que lleva el chip, sobre todo los tensor y rt cores, a la larga no sea el óptimo para los cálculos que quieren hacer, de tan avanzados que están sobre el software. Estoy bastante seguro además que la próxima generación de gráficas tendrá un rendimiento bastante mayor a las turing en ia y raytracing, mas que por aumentar la miniaturización, porque para cuando eso habrá bastante software testeado y se sabrá por donde funcionaban bien las turing y por donde se pueden optimizar, no solamente a nivel de drivers, sino también a nivel físico, de los circuitos. Espero que aún así tarde una buena temporada en salir esa nueva generación, si nos dejan medio tranquilos con esto por lo menos al 2020 se lo agradecería infinito, ahora lo que toca es desarrollar software mas que seguir mejorando hardware, además es muchísimo mas prioritario.
Nos pensamos que el retraso en que salga software nuevo se debe a agotar antes el stock de gráficas pascal, en parte será así, pero también estoy seguro de que es porque realmente no hay software apenas que lo haga, y el que hay está lejos de estar maduro. Ya no solo es porque el software esté en estado alpha o beta, o no rinda como prometieron, creo que es porque ahora mismo están empezando realmente a explorar todo esto y todo está en estado pre-alpha mas bien.
PD. Creo también ahora que el DLSS, a pesar de todo, va a ser una forma "fácil" de aprovechar los tensor cores, antes que de otras maneras, o al menos es la que parece que está mas desarrollada. Además si es cierto lo que prometen, estas gráficas de golpe empezarán a rendir como la gente esperaba que rindieran, o sea, una 2070 al nivel de una 1080ti y a partir de ahí solamente ganancia bruta. Sea como sea, sigue siendo todo esto un truco a fin de cuentas, los frames no son calculados por la gráfica a cuerno uno por uno, como ha sido hasta ahora. Pero bueno, al menos es una base sólida para empezar a implementar el resto de mejoras visuales. El saber que Microsoft va a sacar el direcx ML, una especie de equivalente a esto, me tranquiliza mas que otra cosa, porque a poco que le den soporte esta gente en los controladores, si decidieran mas adelante retirar el DLSS a las gráficas mas antiguas, puede que ahí se pudiera mantener el directx ML, o que directamente no lo quiten siquiera.
goku593 escribió:A ver, que ya lejos de discusiones, por X pérdida de calidad, que no es tanta, se gana rendimiento. A efectos prácticos es una ganancia de rendimiento directa en el juego. Si en vez de 2K al 100%, es algo menos, vale, lo asumo.
papatuelo escribió:goku593 escribió:exter escribió:
Con el Rainbow Six si quieres pueder probar algo parecido. Antes se le llamaba filtro temporal y creo que lo pasaron a T-AA.
La base de la tecnología es esa, lo que nVidia va a hacer es acelerar ese cálculo de AA a partir de no se que magia que no han explicado al detalle.
Yo espero que cuando salga en algun juego, salgan análisis serios de Anandtech o DigitalFoundry analizando el tema.
PD.
En la imagen que han puesto antes del Final Fantasy, yo no lo veo solo un 5% peor, lo veo mucho peor.
La imagen DLSS se ve muy borrosa.
¿Serio Digital Foundry @exter? Vamos, es más serio Michel Quesada...xDD
A ver, que ya lejos de discusiones, por X pérdida de calidad, que no es tanta, se gana rendimiento. A efectos prácticos es una ganancia de rendimiento directa en el juego. Si en vez de 2K al 100%, es algo menos, vale, lo asumo.
Pero vamos, no sé por qué la gente se ofende, estamos hablando. Sin más.
Alberto no he faltado el respeto a nadie. Me gustaría lo mismo por tu parte. Si no sabes mantener una conversación de adulto, no dialogues.
No es ofenderse, es leer barbaridades que no hay por donde cogerlas.
Y las conversaciones de adultos se basan en cinco máximas según Paul Grice, tu te pasa por el forro esta:Máxima de calidad: Intenta que tu contribución sea verdadera
III. No digas nada que creas que es falso
IV. No digas nada si no tienes pruebas suficientes de su veracidad
m0wly escribió:goku593 escribió:A ver, que ya lejos de discusiones, por X pérdida de calidad, que no es tanta, se gana rendimiento. A efectos prácticos es una ganancia de rendimiento directa en el juego. Si en vez de 2K al 100%, es algo menos, vale, lo asumo.
Volvemos al incio de la discusion de hace varias paginas.
No sabemos cuanta calidad se pierde. Como no sabemos cuanta calidad se pierde, porque no hay NADA funcionando con DLSS pues asegurar que se va a perder un 5% de calidad, o un 10%, o un 50% es hablar sin saber. Lo mismo que tu dices "un 5%", yo o cualquier otro podria decir "se pierde un 40%", y ambos estariamos hablando sin saber. Hablamos sobre HUMO.
Ojala sea como tu seguras, un 5% de calidad, OJALA. Y asi sea en la mayoria de juegos. Entonces estare comprando mi 2080ti como todos los demas, y encantado de la vida.
Pero mientras no lo veamos funcionando en la mayoria de juegos, hablar de ello es hablar sobre humo. Comprar una grafica actualmente, pensando que el DLSS va a funcionar como tu dices, es dar un salto de fe en toda regla.
Yo personalmente me mantengo muy muy esceptico que de aqui a 1 año minimo, esta tecnologia se empiece a ver de una manera mas o menos aceptable. Se vera en algun que otro macro-desarrollo, pero en pocos.
@kikomanco por si no te has dado cuenta, llevamos varias paginas hablando sobre el DLSS. Hay varias contribuciones tecnicas, imagenes estaticas, y conjeturas en general. Nadie esta llorando, mas que tu, faltando al respeto 1 de cada 2 mensajes que pones.
goku593 escribió:@kikomanco déjalo. El Haterismo de este hilo es nivel (¿?) Jefe Élite. Imposible.
goku593 escribió:papatuelo escribió:goku593 escribió:
¿Serio Digital Foundry @exter? Vamos, es más serio Michel Quesada...xDD
A ver, que ya lejos de discusiones, por X pérdida de calidad, que no es tanta, se gana rendimiento. A efectos prácticos es una ganancia de rendimiento directa en el juego. Si en vez de 2K al 100%, es algo menos, vale, lo asumo.
Pero vamos, no sé por qué la gente se ofende, estamos hablando. Sin más.
Alberto no he faltado el respeto a nadie. Me gustaría lo mismo por tu parte. Si no sabes mantener una conversación de adulto, no dialogues.
No es ofenderse, es leer barbaridades que no hay por donde cogerlas.
Y las conversaciones de adultos se basan en cinco máximas según Paul Grice, tu te pasa por el forro esta:Máxima de calidad: Intenta que tu contribución sea verdadera
III. No digas nada que creas que es falso
IV. No digas nada si no tienes pruebas suficientes de su veracidad
¿Tú tienes muchas pruebas de todo eh? Eres el más sabio de este foro. Perdoneme Jen-Hsun Huang.
papatuelo escribió:goku593 escribió:papatuelo escribió:
No es ofenderse, es leer barbaridades que no hay por donde cogerlas.
Y las conversaciones de adultos se basan en cinco máximas según Paul Grice, tu te pasa por el forro esta:
¿Tú tienes muchas pruebas de todo eh? Eres el más sabio de este foro. Perdoneme Jen-Hsun Huang.
Ni de coña, pero al menos te he puesto una imagen real para que veas que no es cierto lo que dices y al menos no para de repetir lo mismo aun cuando ya me han corregido 20 veces.
goku593 escribió:@kikomanco déjalo. El Haterismo de este hilo es nivel (¿?) Jefe Élite. Imposible.
goku593 escribió:papatuelo escribió:goku593 escribió:
¿Tú tienes muchas pruebas de todo eh? Eres el más sabio de este foro. Perdoneme Jen-Hsun Huang.
Ni de coña, pero al menos te he puesto una imagen real para que veas que no es cierto lo que dices y al menos no para de repetir lo mismo aun cuando ya me han corregido 20 veces.
¿Pero has visto las imágenes del compañero?
goku593 escribió:@kikomanco déjalo. El Haterismo de este hilo es nivel (¿?) Jefe Élite. Imposible.
m0wly escribió:@kikomanco
pero vamos a ver, mas atras hay otra imagen estatica que con el DLSS se ve como el puto orto.
Y no por ello estamos diciendo que el DLSS es una puta mierda. Estamos diciendo QUE HASTA QUE NO SE VEA IMPLEMENTADO EN LA MAYOR PARTE DE JUEGOS HABLAR SOBRE ELLO ES HABLAR DE HUMO.
Que a mi me da igual que una imagen estatica con DLSS se vea como el orto, como la imagen de la pagina anterior.
Y me da igual que otra imagen estatica con DLSS se vea de puto cine.
Obviamente ominitimos que en una imagen (la que se ve como el orto) esta comparando 4K nativo vs 4K con DLSS y la otra esta comparando DLSS vs filtros varios. Es obvio que la comparacion correcta es la de 4K nativo vs 4K DLSS.
Pero obviamos esto ultimo para no entrar en discusiones de besugo sin sentido.
HABLAMOS DE QUE, te lo vuelvo a poner a ver si lo entiendes, HASTA QUE NO ESTE FUNCIONANDO EN MUCHOS MUCHOS JUEGOS, hablar de ello es hablar de humo.
Tu te empeñas en decir que el DLSS es la octava maravilla del mundo.
El resto te decimos que no se puede afirmar si es la octava maravilla del mundo o un fail.
Solo eso. Es facil facil de entender, sin ser "in-jiniero" ni nada.
exter escribió:goku593 escribió:@kikomanco déjalo. El Haterismo de este hilo es nivel (¿?) Jefe Élite. Imposible.
Pero que haterismo ni que leches.
Hasta que no salga un juego con esto y se pueda probar, todo son suposiciones.
Por eso te digo lo de fuentes serias, ya sea un usuario que lo active y saque capturas, como una web seria que pueda analizar todo lo que hay detrás.
Pero coño que a veces parece que los que os habéis dejado los cuartos os duele que alguien ponga en duda o discrepe de algo que tenéis.
La única realidad que hay aquí es que a ti no te hacía falta cambiar la gpu que tenías, para jugar a 60Hz ibas sobrado, y salieron las nuevas y te enmelonaste, como nos ha pasado a todos alguna vez en la vida, y tiraste de cartera para pillar lo último cuando no tenías necesidad de correr. (Salvo por lo de que vendías a buen precio, eso si)
Seguramente en un mes o dos, con juegos que poder probar, habrías tenido más claro si las promesas de la tecnología realmente cunden.
Dejad ya de poneros a la defensiva porque simplemente no estemos de acuerdo en ciertas cosas. Y Kikomanco que se calme un poco, que parece que tiene 15 años con la rabieta.
No se vosotros, pero yo tengo ya 36 años y llevo sufriendo promesas de tecnologías desde la S3 Virge de 4Mb.