NVIDIA "Turing" Nueva Generacion GTX 16x0/Ti -|- RTX 20x0/Ti -|- SUPER

goku593 escribió:@kailkatarn el tema aquí es que las tecnologías de Nvidia que históricamente se han quedado en humo no eran más que recursos gráficos y puro Software, pongamos el Hairworks o el PhysX, pero ahora se trata de Hardware dedicado. Los Tensor Core están ahí, y los RT también. Existen y se tienen que poner en marcha. Nvidia ya habrá tratado esto con las más importantes desarrolladoras y estoy seguro que ya están trabajando en ellos para exprimirlos. Pero seamos pacientes. Ahora es la etapa de salida de Stock de Pascal.



Sí, eso es cierto, pero todo dependerá de como acabe implementado y que implique como bien dices. Si es que no hay nada como dar tiempo al tiempo, es el que nos sacará de dudas si son una buena compra o no. Un saludo y ya contarás que tal la bicha, que la disfrutes! [oki]
KailKatarn escribió:
goku593 escribió:@kailkatarn el tema aquí es que las tecnologías de Nvidia que históricamente se han quedado en humo no eran más que recursos gráficos y puro Software, pongamos el Hairworks o el PhysX, pero ahora se trata de Hardware dedicado. Los Tensor Core están ahí, y los RT también. Existen y se tienen que poner en marcha. Nvidia ya habrá tratado esto con las más importantes desarrolladoras y estoy seguro que ya están trabajando en ellos para exprimirlos. Pero seamos pacientes. Ahora es la etapa de salida de Stock de Pascal.



Sí, eso es cierto, pero todo dependerá de como acabe implementado y que implique como bien dices. Si es que no hay nada como dar tiempo al tiempo, es el que nos sacará de dudas si son una buena compra o no. Un saludo y ya contarás que tal la bicha, que la disfrutes! [oki]


A ver, realmente el tiempo tiene el bastón de mando, y de cambio. Pero yo, sinceramente, les daría unos meses antes de poner a parir como se está haciendo. Si, finalmente, queda en nada toda esta tecnología -que se traduciría en perdidas enormes para Nvidia dada su inversión en la AI- pues ya sí, a ponerles en su sitio.

Respecto a la RTX 2080, yo estoy encantado, jugando a 2K Ultra al Odyssey y fenomenal. Y de temperaturas también bien. A la espera de que implementen lo importante...xD

@papatuelo "NVIDIA DLSS es una tecnología basada en las DNN (Deep Neural Networks) que posee NVIDIA, que emplea la IA para realizar una serie de tareas que NVIDIA ya se ha encargado de hacer aprender a esta IA. En el caso de DLSS, la DNN de NVIDIA es la que se encarga de mejorar la imagen representada en pantalla, mejorando las áreas de la imagen que se verían borrosas con otras técnicas como TAA (Temporal Anti Alising) y, a la vez, incrementando el rendimiento general de las tarjetas gráficas que emplean la arquitectura Turing.

Para entrenar a la DNN, NVIDIA se ha dedicado a recoger miles de imágenes de referencia, que se han renderizado como 64x SuperSampling. Esto significa que cada píxel de la imagen se trata 64 veces de diferente manera, y el resultado final se combina en una imagen con gran realismo. A partir de ahí, hay que entrenar a la DNN para que el resultado final que se obtiene con el DLSS sea lo más parecido a la imagen obtenida con el 64x SuperSampling. Esta es parte de la labor de los núcleos Tensor."

Quizás me haya expresado mal. Es de lo que he ido leyendo. Aún así ahí dejo lo que es, mucho mejor explicado por un medio especializado.
En serio creéis que Nvidia se ha desecho del nombre GeForce para vender humo?
Tenéis una idea de lo que cuesta conseguir una marca que todo el mundo relacione con calidad?
Lo llevan años usando para todo: gráficas, software, GeForce experiencia, GeForce pertner, etc...

Y todo eso para poner el nombre de una tecnología que usarán dos juegos y se olvidará?
adriano_99 escribió:En serio creéis que Nvidia se ha desecho del nombre GeForce para vender humo?
Tenéis una idea de lo que cuesta conseguir una marca que todo el mundo relacione con calidad?
Lo llevan años usando para todo: gráficas, software, GeForce experiencia, GeForce pertner, etc...

Y todo eso para poner el nombre de una tecnología que usarán dos juegos y se olvidará?

Eso es lo de menos. Cuando tienes una posición firme en el mercado, y te conocen, puedes hacer lo que quieras e innovar. Aquí la cuestión es la INVERSIÓN que se ha llevado a cabo.
ya estan tardando en poner actualizaciones rtx a los juegos que decian iban a implementsrlo como tombrider,se decia que faltaba que windows actualizara,pues bien eso ya está,ahora que...
goku593 escribió:
adriano_99 escribió:En serio creéis que Nvidia se ha desecho del nombre GeForce para vender humo?
Tenéis una idea de lo que cuesta conseguir una marca que todo el mundo relacione con calidad?
Lo llevan años usando para todo: gráficas, software, GeForce experiencia, GeForce pertner, etc...

Y todo eso para poner el nombre de una tecnología que usarán dos juegos y se olvidará?

Eso es lo de menos. Cuando tienes una posición firme en el mercado, y te conocen, puedes hacer lo que quieras e innovar. Aquí la cuestión es la INVERSIÓN que se ha llevado a cabo.

Estas muy equivocado, tener un nombre reconocible es FUNDAMENTAL para una empresa.
es la razón por la que ubisoft sigue haciendo assassins creed cuando los últimos podrían ser nuevas ip perfectamente pero el nombre de assassins es muy caro.
adriano_99 escribió:
goku593 escribió:
adriano_99 escribió:En serio creéis que Nvidia se ha desecho del nombre GeForce para vender humo?
Tenéis una idea de lo que cuesta conseguir una marca que todo el mundo relacione con calidad?
Lo llevan años usando para todo: gráficas, software, GeForce experiencia, GeForce pertner, etc...

Y todo eso para poner el nombre de una tecnología que usarán dos juegos y se olvidará?

Eso es lo de menos. Cuando tienes una posición firme en el mercado, y te conocen, puedes hacer lo que quieras e innovar. Aquí la cuestión es la INVERSIÓN que se ha llevado a cabo.

Estas muy equivocado, tener un nombre reconocible es FUNDAMENTAL para una empresa.
es la razón por la que ubisoft sigue haciendo assassins creed cuando los últimos podrían ser nuevas ip perfectamente pero el nombre de assassins es muy caro.

Ya te digo yo que el cambio de GTX a RTX se la trae al pairo al consumidor habitual de Nvidia, ¿por qué? Porque Nvidia ya tiene su posición acomodada en el mercado.
Ya me han enviado la gráfica PCcomponentes, mañana si no pasa nada la estaré recogiendo [beer]
goku593 escribió:
@papatuelo "NVIDIA DLSS es una tecnología basada en las DNN (Deep Neural Networks) que posee NVIDIA, que emplea la IA para realizar una serie de tareas que NVIDIA ya se ha encargado de hacer aprender a esta IA. En el caso de DLSS, la DNN de NVIDIA es la que se encarga de mejorar la imagen representada en pantalla, mejorando las áreas de la imagen que se verían borrosas con otras técnicas como TAA (Temporal Anti Alising) y, a la vez, incrementando el rendimiento general de las tarjetas gráficas que emplean la arquitectura Turing.

Para entrenar a la DNN, NVIDIA se ha dedicado a recoger miles de imágenes de referencia, que se han renderizado como 64x SuperSampling. Esto significa que cada píxel de la imagen se trata 64 veces de diferente manera, y el resultado final se combina en una imagen con gran realismo. A partir de ahí, hay que entrenar a la DNN para que el resultado final que se obtiene con el DLSS sea lo más parecido a la imagen obtenida con el 64x SuperSampling. Esta es parte de la labor de los núcleos Tensor."




Es que parece que te crees que en el driver se pasan todas los posibles frames de un juego renderizados a 4K X64.

De verdad que no te aclaras, ¿¿¿como que supersamplig 64X significa que la imagen se trata de 64 formas diferentes???

Supersamplin 64X significa que la imagen se renderiza a una resolución interna 64 veces mayor que la objetivo.

¿Pero no te das cuenta de lo que pesaría ese driver?

Y ya que mencionas TAA, esa es una de las quejas que he expresado más de una vez, muestran la imagen con TAA (un antialiasing que emborrona un monton la imagen) y la enfrentan al DLSS.

Es cierto que parece ser que hay situaciones en las que el DLSS puede llegar a obtener imagenes incluso mejoradas, pero de ahí a decir que no hay diferencia va un trecho


Lo que se hace, o al menos así lo entiendo yo, es generar un "algoritmo" de reescalado basado en la info extraida por Saturno 5, sé que no es exactamente un algoritmo pero los profanos no creo que encontremos la diferencia.

Pero sigue siendo un reescalado.

Y para muestra un botón:

Imagen
kikomanco escribió:Ya me han enviado la gráfica PCcomponentes, mañana si no pasa nada la estaré recogiendo [beer]

cual al final?
papatuelo escribió:
goku593 escribió:
@papatuelo "NVIDIA DLSS es una tecnología basada en las DNN (Deep Neural Networks) que posee NVIDIA, que emplea la IA para realizar una serie de tareas que NVIDIA ya se ha encargado de hacer aprender a esta IA. En el caso de DLSS, la DNN de NVIDIA es la que se encarga de mejorar la imagen representada en pantalla, mejorando las áreas de la imagen que se verían borrosas con otras técnicas como TAA (Temporal Anti Alising) y, a la vez, incrementando el rendimiento general de las tarjetas gráficas que emplean la arquitectura Turing.

Para entrenar a la DNN, NVIDIA se ha dedicado a recoger miles de imágenes de referencia, que se han renderizado como 64x SuperSampling. Esto significa que cada píxel de la imagen se trata 64 veces de diferente manera, y el resultado final se combina en una imagen con gran realismo. A partir de ahí, hay que entrenar a la DNN para que el resultado final que se obtiene con el DLSS sea lo más parecido a la imagen obtenida con el 64x SuperSampling. Esta es parte de la labor de los núcleos Tensor."




Es que parece que te crees que en el driver se pasan todas los posibles frames de un juego renderizados a 4K X64.

De verdad que no te aclaras, ¿¿¿como que supersamplig 64X significa que la imagen se trata de 64 formas diferentes???

Supersamplin 64X significa que la imagen se renderiza a una resolución interna 64 veces mayor que la objetivo.

¿Pero no te das cuenta de lo que pesaría ese driver?

Y ya que mencionas TAA, esa es una de las quejas que he expresado más de una vez, muestran la imagen con TAA (un antialiasing que emborrona un monton la imagen) y la enfrentan al DLSS.

Es cierto que parece ser que hay situaciones en las que el DLSS puede llegar a obtener imagenes incluso mejoradas, pero de ahí a decir que no hay diferencia va un trecho


Lo que se hace, o al menos así lo entiendo yo, es generar un "algoritmo" de reescalado basado en la info extraida por Saturno 5, sé que no es exactamente un algoritmo pero los profanos no creo que encontremos la diferencia.

Pero sigue siendo un reescalado.

Y para muestra un botón:

Imagen


https://hardzone.es/2018/10/06/que-es-n ... to-juegos/

Explicáselo a este señor. No a mí.
goku593 escribió:
papatuelo escribió:
goku593 escribió:
@papatuelo "NVIDIA DLSS es una tecnología basada en las DNN (Deep Neural Networks) que posee NVIDIA, que emplea la IA para realizar una serie de tareas que NVIDIA ya se ha encargado de hacer aprender a esta IA. En el caso de DLSS, la DNN de NVIDIA es la que se encarga de mejorar la imagen representada en pantalla, mejorando las áreas de la imagen que se verían borrosas con otras técnicas como TAA (Temporal Anti Alising) y, a la vez, incrementando el rendimiento general de las tarjetas gráficas que emplean la arquitectura Turing.

Para entrenar a la DNN, NVIDIA se ha dedicado a recoger miles de imágenes de referencia, que se han renderizado como 64x SuperSampling. Esto significa que cada píxel de la imagen se trata 64 veces de diferente manera, y el resultado final se combina en una imagen con gran realismo. A partir de ahí, hay que entrenar a la DNN para que el resultado final que se obtiene con el DLSS sea lo más parecido a la imagen obtenida con el 64x SuperSampling. Esta es parte de la labor de los núcleos Tensor."




Es que parece que te crees que en el driver se pasan todas los posibles frames de un juego renderizados a 4K X64.

De verdad que no te aclaras, ¿¿¿como que supersamplig 64X significa que la imagen se trata de 64 formas diferentes???

Supersamplin 64X significa que la imagen se renderiza a una resolución interna 64 veces mayor que la objetivo.

¿Pero no te das cuenta de lo que pesaría ese driver?

Y ya que mencionas TAA, esa es una de las quejas que he expresado más de una vez, muestran la imagen con TAA (un antialiasing que emborrona un monton la imagen) y la enfrentan al DLSS.

Es cierto que parece ser que hay situaciones en las que el DLSS puede llegar a obtener imagenes incluso mejoradas, pero de ahí a decir que no hay diferencia va un trecho


Lo que se hace, o al menos así lo entiendo yo, es generar un "algoritmo" de reescalado basado en la info extraida por Saturno 5, sé que no es exactamente un algoritmo pero los profanos no creo que encontremos la diferencia.

Pero sigue siendo un reescalado.

Y para muestra un botón:

Imagen


https://hardzone.es/2018/10/06/que-es-n ... to-juegos/

Explicáselo a este señor. No a mí.


Que un artículo random en internet diga una cosa no quiere decir que sea cierta.

O es supersampling o trata la imagen de 64 formas diferentes, pero no son sinónimos. Yo realmente no sé cual es la buena, pero viendo lo que dijo otro usuario más arriba me inclino por pensar que es supersamplig.

Por lo demás, ¿qué se usa la IA? Sí, ¿qué se usa para mejorar la imagen? Sí. Pero el problema que yo le veo es que tu coges y hablas de incremento de rendimiento, que de ninguna forma existe. Existe incremente en la tasa de frames pero por no renderizar a la misma resolución interna si no a un 44% de está y luego usar la información que ha aprendido la IA y que se a incorporado al driver para reescalar esa imagen de la mejor manera posible.
karlostek escribió:
kikomanco escribió:Ya me han enviado la gráfica PCcomponentes, mañana si no pasa nada la estaré recogiendo [beer]

cual al final?

La misma de antes la que tú tienes, la gigabyte gaming oc
@papatuelo que más da si sera un incremento en el rendimiento o un incremento en los FPS si luego al final el incremento de potencia ser ve reflejado en los FPS que escupe la gráfica y encima con una calidad de imagen prácticamente igual? Ya sabemos que no es 4k nativo, tú has puesto esa imagen estática, y según han analizado los expertos, es precisamente en ese punto, el único momento que se nota, en las imágenes estáticas, en las imágenes en movimiento es imperceptible el 4k nativo, con el reescalado con DLSS, no dicho por mi, dicho por un montón de artículos que he leído en la Red, pero claro tú debes de saber más que ellos, para muestra un botón

https://m.youtube.com/watch?v=TObwHpZgTGE
papatuelo escribió:
goku593 escribió:
papatuelo escribió:

Es que parece que te crees que en el driver se pasan todas los posibles frames de un juego renderizados a 4K X64.

De verdad que no te aclaras, ¿¿¿como que supersamplig 64X significa que la imagen se trata de 64 formas diferentes???

Supersamplin 64X significa que la imagen se renderiza a una resolución interna 64 veces mayor que la objetivo.

¿Pero no te das cuenta de lo que pesaría ese driver?

Y ya que mencionas TAA, esa es una de las quejas que he expresado más de una vez, muestran la imagen con TAA (un antialiasing que emborrona un monton la imagen) y la enfrentan al DLSS.

Es cierto que parece ser que hay situaciones en las que el DLSS puede llegar a obtener imagenes incluso mejoradas, pero de ahí a decir que no hay diferencia va un trecho


Lo que se hace, o al menos así lo entiendo yo, es generar un "algoritmo" de reescalado basado en la info extraida por Saturno 5, sé que no es exactamente un algoritmo pero los profanos no creo que encontremos la diferencia.

Pero sigue siendo un reescalado.

Y para muestra un botón:

Imagen


https://hardzone.es/2018/10/06/que-es-n ... to-juegos/

Explicáselo a este señor. No a mí.


Que un artículo random en internet diga una cosa no quiere decir que sea cierta.

O es supersampling o trata la imagen de 64 formas diferentes, pero no son sinónimos. Yo realmente no sé cual es la buena, pero viendo lo que dijo otro usuario más arriba me inclino por pensar que es supersamplig.

Por lo demás, ¿qué se usa la IA? Sí, ¿qué se usa para mejorar la imagen? Sí. Pero el problema que yo le veo es que tu coges y hablas de incremento de rendimiento, que de ninguna forma existe. Existe incremente en la tasa de frames pero por no renderizar a la misma resolución interna si no a un 44% de está y luego usar la información que ha aprendido la IA y que se a incorporado al driver para reescalar esa imagen de la mejor manera posible.

Por ende,existe mejora de rendimiento.
goku593 escribió:
papatuelo escribió:
goku593 escribió:
https://hardzone.es/2018/10/06/que-es-n ... to-juegos/

Explicáselo a este señor. No a mí.


Que un artículo random en internet diga una cosa no quiere decir que sea cierta.

O es supersampling o trata la imagen de 64 formas diferentes, pero no son sinónimos. Yo realmente no sé cual es la buena, pero viendo lo que dijo otro usuario más arriba me inclino por pensar que es supersamplig.

Por lo demás, ¿qué se usa la IA? Sí, ¿qué se usa para mejorar la imagen? Sí. Pero el problema que yo le veo es que tu coges y hablas de incremento de rendimiento, que de ninguna forma existe. Existe incremente en la tasa de frames pero por no renderizar a la misma resolución interna si no a un 44% de está y luego usar la información que ha aprendido la IA y que se a incorporado al driver para reescalar esa imagen de la mejor manera posible.

Por ende,existe mejora de rendimiento.

Totalmente de acuerdo contigo compañero, mira el vídeo que he dejado más arriba, de Michael Quesada, pero nada, estos in-jinieros de barra saben más que ellos y más que cualquier periodista especializado en el sector que escribe un artículo y lo cuelga en una página especializada en el mundo del PC
Graphics Score 11 361
Con una 2080 FE.
https://www.3dmark.com/3dm/29462683?

He visto foreros por aqui, con 15 000 en G.S. pelados
No es mala para ser una "no Ti"
goku593 escribió:
papatuelo escribió:
goku593 escribió:
https://hardzone.es/2018/10/06/que-es-n ... to-juegos/

Explicáselo a este señor. No a mí.


Que un artículo random en internet diga una cosa no quiere decir que sea cierta.

O es supersampling o trata la imagen de 64 formas diferentes, pero no son sinónimos. Yo realmente no sé cual es la buena, pero viendo lo que dijo otro usuario más arriba me inclino por pensar que es supersamplig.

Por lo demás, ¿qué se usa la IA? Sí, ¿qué se usa para mejorar la imagen? Sí. Pero el problema que yo le veo es que tu coges y hablas de incremento de rendimiento, que de ninguna forma existe. Existe incremente en la tasa de frames pero por no renderizar a la misma resolución interna si no a un 44% de está y luego usar la información que ha aprendido la IA y que se a incorporado al driver para reescalar esa imagen de la mejor manera posible.

Por ende,existe mejora de rendimiento.


Y vuelta la borrica al trigo, eso no es mejora de rendimiento. Eso es aumento de frames a costa de disminuir la calidad de la imagen.

Es como decir que tengo mejora de rendimiento por jugar a 1080p en lugar de a 4K.

Pero ahora veo claro lo que pasa, has comprado una 2080 y tienes que convencerte a cualquier costa de que has acertado.

Pues el tiempo lo dirá.
goku593 escribió:Por ende,existe mejora de rendimiento.


No, la grafica no tiene mejora de rendimiento. No rinde un 40 o 50%+ por arte de magia. Solo que procesa imagenes que requieren menos calculos.
Es como si dices que una grafica tiene mejora de rendimiento por jugar a 1080p respecto de jugar a 1440p porque le puedes poner mas filtros. No. Lo que consigues son mas FPS a igualdad de filtros por tratar con imagenes que requieren menos calculos.

kikomanco escribió:una calidad de imagen prácticamente igual? Ya sabemos que no es 4k nativo, tú has puesto esa imagen estática, y según han analizado los expertos, es precisamente en ese punto, el único momento que se nota, en las imágenes estáticas, en las imágenes en movimiento es imperceptible el 4k nativo, con el reescalado con DLSS, no dicho por mi, dicho por un montón de artículos que he leído en la Red

Pero vamos a ver hombre. Te estan poniendo imagenes en las que CLARAMENTE se nota una diferencia IMPORTANTE entre 4K nativo y 4K procesado por DLSS.
Insistes en algo en lo que NO TIENES PRUEBAS. Insistes en que "solo se nota en las imagenes estaticas, en las imagenes en movimiento no se nota que lo dice mucha gente del internete".

De verdad que no puedo entender ese nivel de cabezoneria en tratar de afirmar algo de lo que aun no hay prueba ninguna. Y por el contrario si tenemos pruebas de que con imagenes estaticas se nota un huevo.
Y claro, no se si lo sabes, pero una imagen "en movimiento" es una sucesion de imagenes estaticas. Si se nota en una imagen estatica, obviamente se notara en una imagen en movimiento.

Ahora sera cuando pasamos a la fase de "pero es que el ojo humano no ve mas de 30fps", "pero es que el ojo humano no ve mas de 1080p", y digievolucionaremos a "pero es que el ojo humano no nota la diferencia cuando las imagenes son en movimiento".
m0wly escribió:
goku593 escribió:Por ende,existe mejora de rendimiento.


No, la grafica no tiene mejora de rendimiento. No rinde un 40 o 50%+ por arte de magia. Solo que procesa imagenes que requieren menos calculos.
Es como si dices que una grafica tiene mejora de rendimiento por jugar a 1080p respecto de jugar a 1440p porque le puedes poner mas filtros. No. Lo que consigues son mas FPS a igualdad de filtros por tratar con imagenes que requieren menos calculos.

Eso tampoco es cierto, también requiere cálculos, pero no de la manera que hasta ahora se hacía con los cudas cores, si no a través de los tensor cores, si una imagen tratada con DLSS es casi idéntico y prácticamente imperceptible del 4k nativo y encima con mejor calidad visual que con TAA, que más os da cómo se haga si la ganancia de rendimiento esta ahí y es real?
kikomanco escribió:
m0wly escribió:
goku593 escribió:Por ende,existe mejora de rendimiento.


No, la grafica no tiene mejora de rendimiento. No rinde un 40 o 50%+ por arte de magia. Solo que procesa imagenes que requieren menos calculos.
Es como si dices que una grafica tiene mejora de rendimiento por jugar a 1080p respecto de jugar a 1440p porque le puedes poner mas filtros. No. Lo que consigues son mas FPS a igualdad de filtros por tratar con imagenes que requieren menos calculos.

Eso tampoco es cierto, también requiere cálculos, pero no de la manera que hasta ahora se hacía con los cudas cores, si no a través de los tensor cores, si una imagen tratada con DLSS es casi idéntico y prácticamente imperceptible del 4k nativo y encima con mejor calidad visual que con TAA, que más os da cómo se haga si la ganancia de rendimiento esta ahí y es real?


Tergiversas.
No existe ganancia de rendimiento por aplicar DLSS.
Pasar de 4K nativo a 4K reescalado no te da una ganancia de rendimiento. La grafica rinde lo mismo, obviamente. No hace falta ser un "in-jiniero", como dices tu, para darse cuenta.

Tergiversas para tratar de llevar razon. Apoyas tus argumentos en algo que no puedes probar. Y es que una imagen nativa sea igual a una reescalada con DLSS.

De momento, las pruebas que hay es que, en estatico hay una diferencia importante. Veremos con los pocos juegos que hagan uso de DLSS como es la cosa.
RTX 2080 NO DLSS --> 60 FPS.
RTX 2080 DLSS ON --> 75 FPS.

Mejora de rendimiento. Punto.
m0wly escribió:
kikomanco escribió:
m0wly escribió:
No, la grafica no tiene mejora de rendimiento. No rinde un 40 o 50%+ por arte de magia. Solo que procesa imagenes que requieren menos calculos.
Es como si dices que una grafica tiene mejora de rendimiento por jugar a 1080p respecto de jugar a 1440p porque le puedes poner mas filtros. No. Lo que consigues son mas FPS a igualdad de filtros por tratar con imagenes que requieren menos calculos.

Eso tampoco es cierto, también requiere cálculos, pero no de la manera que hasta ahora se hacía con los cudas cores, si no a través de los tensor cores, si una imagen tratada con DLSS es casi idéntico y prácticamente imperceptible del 4k nativo y encima con mejor calidad visual que con TAA, que más os da cómo se haga si la ganancia de rendimiento esta ahí y es real?


Tergiversas.
No existe ganancia de rendimiento por aplicar DLSS.
Pasar de 4K nativo a 4K reescalado no te da una ganancia de rendimiento. La grafica rinde lo mismo, obviamente. No hace falta ser un "in-jiniero", como dices tu, para darse cuenta.

Tergiversas para tratar de llevar razon. Apoyas tus argumentos en algo que no puedes probar. Y es que una imagen nativa sea igual a una reescalada con DLSS.

De momento, las pruebas que hay es que, en estatico hay una diferencia importante. Veremos con los pocos juegos que hagan uso de DLSS como es la cosa.
hace casi un mes colgué 3 capturas de la demo del final fantasy 15, una sin AA otra con AA y otra con DLSS, adivinas cual se veía mejor? Pues luego más tarde las vuelvo a colgar, y son imágenes estáticas, ahí también tienes la demo técnica de infiltrator, y prácticamente no hay diferencia alguna entre 4k nativo y DLSS
goku593 escribió:RTX 2080 NO DLSS --> 60 FPS.
RTX 2080 DLSS ON --> 75 FPS.

Mejora de rendimiento. Punto a costa de perder calidad de imagen, sea mucha o poca, pero se pierde calidad.
goku593 escribió:RTX 2080 NO DLSS --> 60 FPS.
RTX 2080 DLSS ON --> 75 FPS.

Mejora de rendimiento. Punto.


Mismo argumento:

RTX 2080 4K 60fps
RTX 2080 1080p 120fps

Mejora de rendimiento. Punto.

Mente plana, argumentos planos.
kikomanco escribió:Totalmente de acuerdo contigo compañero, mira el vídeo que he dejado más arriba, de Michael Quesada, pero nada, estos in-jinieros de barra saben más que ellos y más que cualquier periodista especializado en el sector que escribe un artículo y lo cuelga en una página especializada en el mundo del PC


El primer fallo de base, es que los señores de Hardzone habrán usado el traductor de google de la fuente original de nvidia.

Lo que dice en inglés cualquier web seria de review (copiado de nvidia), es lo siguiente:

DLSS bases its 'knowledge' of the game based on a series of super high quality 64x super-sampled images fed into the Saturn-5 hardware.

64X super-sampled images no es lo que decía goku de renderizar la imagen 64 formas diferentes (no tiene sentido), sino que es renderizar la imagen a una resolución 64 veces por encima.

Vamos para entendernos, es como el Nvidia Ansel, que puedes poner un output de imagen que te de la gana, 15000x15000, que renderiza esa imagen, y si luego la escalas a la resolución de tu monitor alucinas lo bien que se ve.

Pues exactamente eso.

Pero eh, que somos solo unos hinjenieros de barra de bar elucubrando y el señor Michael Quesada es todo un gurú de la tecnología (no lo había oido en mi vida).
cristiano.88 escribió:
goku593 escribió:RTX 2080 NO DLSS --> 60 FPS.
RTX 2080 DLSS ON --> 75 FPS.

Mejora de rendimiento. Punto a costa de perder calidad de imagen, sea mucha o poca, pero se pierde calidad.

Bueno, por un 5% de pérdida de calidad gano un 30% de rendimiento.
Ayer estuve viendo completa la presentación de Agosto de las gráficas estas, para ver si lograba sacar algo en claro de esta gente y ver si estaban mintiendo mucho o no. No me pareció que dijera el chino grandes mentiras, o al menos eso creo. Lo que si estoy sacando en claro de todo esto, tanto de la presentación como del estado actual de las cosas, es que el chip está muy adelantado al software a todos los niveles, tanto que necesitaremos meses para poder verlo rendir bien y varias versiones de los juegos hasta que sean estables y rindan bien, hasta para juegos que no utilicen tecnologías nuevas, mirad si no lo que está pasando con los drivers 416. El software por ahora no pasa de ejemplos de código en plan académico, todo desarrollos nuevos sobre áreas de la computación que no están asentadas. Me ha entrado un poco de miedo al pensar que quizás el nuevo diseño de los tres tipos de núcleos que lleva el chip, sobre todo los tensor y rt cores, a la larga no sea el óptimo para los cálculos que quieren hacer, de tan avanzados que están sobre el software. Estoy bastante seguro además que la próxima generación de gráficas tendrá un rendimiento bastante mayor a las turing en ia y raytracing, mas que por aumentar la miniaturización, porque para cuando eso habrá bastante software testeado y se sabrá por donde funcionaban bien las turing y por donde se pueden optimizar, no solamente a nivel de drivers, sino también a nivel físico, de los circuitos. Espero que aún así tarde una buena temporada en salir esa nueva generación, si nos dejan medio tranquilos con esto por lo menos al 2020 se lo agradecería infinito, ahora lo que toca es desarrollar software mas que seguir mejorando hardware, además es muchísimo mas prioritario.

Nos pensamos que el retraso en que salga software nuevo se debe a agotar antes el stock de gráficas pascal, en parte será así, pero también estoy seguro de que es porque realmente no hay software apenas que lo haga, y el que hay está lejos de estar maduro. Ya no solo es porque el software esté en estado alpha o beta, o no rinda como prometieron, creo que es porque ahora mismo están empezando realmente a explorar todo esto y todo está en estado pre-alpha mas bien.

PD. Creo también ahora que el DLSS, a pesar de todo, va a ser una forma "fácil" de aprovechar los tensor cores, antes que de otras maneras, o al menos es la que parece que está mas desarrollada. Además si es cierto lo que prometen, estas gráficas de golpe empezarán a rendir como la gente esperaba que rindieran, o sea, una 2070 al nivel de una 1080ti y a partir de ahí solamente ganancia bruta. Sea como sea, sigue siendo todo esto un truco a fin de cuentas, los frames no son calculados por la gráfica a cuerno uno por uno, como ha sido hasta ahora. Pero bueno, al menos es una base sólida para empezar a implementar el resto de mejoras visuales. El saber que Microsoft va a sacar el direcx ML, una especie de equivalente a esto, me tranquiliza mas que otra cosa, porque a poco que le den soporte esta gente en los controladores, si decidieran mas adelante retirar el DLSS a las gráficas mas antiguas, puede que ahí se pudiera mantener el directx ML, o que directamente no lo quiten siquiera.
goku593 escribió:
cristiano.88 escribió:
goku593 escribió:RTX 2080 NO DLSS --> 60 FPS.
RTX 2080 DLSS ON --> 75 FPS.

Mejora de rendimiento. Punto a costa de perder calidad de imagen, sea mucha o poca, pero se pierde calidad.

Bueno, por un 5% de pérdida de calidad gano un 30% de rendimiento.


¿Donde dicen lo del 5% de perdida de calidad? ¿O eso te lo estas inventando como todo lo demas?

Y no insistas, no se gana rendimiento.

Una tarjeta grafica solo gana rendimiento si le haces overclock, incrementando la frecuencia a la que trabaja. Ni si quiera gana rendimiento puliendo los drivers. Lo que consigues puliendo drivers es optimizarla, pero en ningun caso incrementar el rendimiento.
Si acaso, puedes ganar algo de rendimiento cambiando el firmware, haciendo que funcione a un voltaje mas alto o a un mayor TDP, pero poco mas.
Por activar un filtro llamado DLSS no ganas rendimiento, es algo tan obvio que me alucina estar hablando sobre ello.
goku593 escribió:RTX 2080 NO DLSS --> 60 FPS.
RTX 2080 DLSS ON --> 75 FPS.

Mejora de rendimiento. Punto.


Con el Rainbow Six si quieres pueder probar algo parecido. Antes se le llamaba filtro temporal y creo que lo pasaron a T-AA.

La base de la tecnología es esa, lo que nVidia va a hacer es acelerar ese cálculo de AA a partir de no se que magia que no han explicado al detalle.

Yo espero que cuando salga en algun juego, salgan análisis serios de Anandtech o DigitalFoundry analizando el tema.

PD.

En la imagen que han puesto antes del Final Fantasy, yo no lo veo solo un 5% peor, lo veo mucho peor.

La imagen DLSS se ve muy borrosa.
goku593 escribió:RTX 2080 NO DLSS --> 60 FPS.
RTX 2080 DLSS ON --> 75 FPS.

Mejora de rendimiento. Punto.


Las gilipolleces que hay que leer... [facepalm]
exter escribió:
goku593 escribió:RTX 2080 NO DLSS --> 60 FPS.
RTX 2080 DLSS ON --> 75 FPS.

Mejora de rendimiento. Punto.


Con el Rainbow Six si quieres pueder probar algo parecido. Antes se le llamaba filtro temporal y creo que lo pasaron a T-AA.

La base de la tecnología es esa, lo que nVidia va a hacer es acelerar ese cálculo de AA a partir de no se que magia que no han explicado al detalle.

Yo espero que cuando salga en algun juego, salgan análisis serios de Anandtech o DigitalFoundry analizando el tema.

PD.

En la imagen que han puesto antes del Final Fantasy, yo no lo veo solo un 5% peor, lo veo mucho peor.

La imagen DLSS se ve muy borrosa.


¿Serio Digital Foundry @exter? Vamos, es más serio Michel Quesada...xDD

A ver, que ya lejos de discusiones, por X pérdida de calidad, que no es tanta, se gana rendimiento. A efectos prácticos es una ganancia de rendimiento directa en el juego. Si en vez de 2K al 100%, es algo menos, vale, lo asumo.

Pero vamos, no sé por qué la gente se ofende, estamos hablando. Sin más.

Alberto no he faltado el respeto a nadie. Me gustaría lo mismo por tu parte. Si no sabes mantener una conversación de adulto, no dialogues.
Por favor, si alguien ha logrado activar el dlss en algún sitio, por favor que lo explique como lo consiguió.
albertoooooooooo escribió:
goku593 escribió:RTX 2080 NO DLSS --> 60 FPS.
RTX 2080 DLSS ON --> 75 FPS.

Mejora de rendimiento. Punto.


Las gilipolleces que hay que leer... [facepalm]

Con esto ya pierdes toda la credibilidad. Respeto amigo.
En Coolmod no tienen previsión de recibir nada de MSI esta semana tampoco, solo de EVGA y Gigabyte.

Les he dicho que si me guardan una de las EVGA Ultra que les lleguen me la quedo, no quiero esperar otra semana o dos semanas más.
goku593 escribió:
exter escribió:
goku593 escribió:RTX 2080 NO DLSS --> 60 FPS.
RTX 2080 DLSS ON --> 75 FPS.

Mejora de rendimiento. Punto.


Con el Rainbow Six si quieres pueder probar algo parecido. Antes se le llamaba filtro temporal y creo que lo pasaron a T-AA.

La base de la tecnología es esa, lo que nVidia va a hacer es acelerar ese cálculo de AA a partir de no se que magia que no han explicado al detalle.

Yo espero que cuando salga en algun juego, salgan análisis serios de Anandtech o DigitalFoundry analizando el tema.

PD.

En la imagen que han puesto antes del Final Fantasy, yo no lo veo solo un 5% peor, lo veo mucho peor.

La imagen DLSS se ve muy borrosa.


¿Serio Digital Foundry @exter? Vamos, es más serio Michel Quesada...xDD

A ver, que ya lejos de discusiones, por X pérdida de calidad, que no es tanta, se gana rendimiento. A efectos prácticos es una ganancia de rendimiento directa en el juego. Si en vez de 2K al 100%, es algo menos, vale, lo asumo.

Pero vamos, no sé por qué la gente se ofende, estamos hablando. Sin más.

Alberto no he faltado el respeto a nadie. Me gustaría lo mismo por tu parte. Si no sabes mantener una conversación de adulto, no dialogues.


No es ofenderse, es leer barbaridades que no hay por donde cogerlas.

Y las conversaciones de adultos se basan en cinco máximas según Paul Grice, tu te pasa por el forro esta:

Máxima de calidad: Intenta que tu contribución sea verdadera

III. No digas nada que creas que es falso
IV. No digas nada si no tienes pruebas suficientes de su veracidad
pakolo1977 escribió:Ayer estuve viendo completa la presentación de Agosto de las gráficas estas, para ver si lograba sacar algo en claro de esta gente y ver si estaban mintiendo mucho o no. No me pareció que dijera el chino grandes mentiras, o al menos eso creo. Lo que si estoy sacando en claro de todo esto, tanto de la presentación como del estado actual de las cosas, es que el chip está muy adelantado al software a todos los niveles, tanto que necesitaremos meses para poder verlo rendir bien y varias versiones de los juegos hasta que sean estables y rindan bien, hasta para juegos que no utilicen tecnologías nuevas, mirad si no lo que está pasando con los drivers 416. El software por ahora no pasa de ejemplos de código en plan académico, todo desarrollos nuevos sobre áreas de la computación que no están asentadas. Me ha entrado un poco de miedo al pensar que quizás el nuevo diseño de los tres tipos de núcleos que lleva el chip, sobre todo los tensor y rt cores, a la larga no sea el óptimo para los cálculos que quieren hacer, de tan avanzados que están sobre el software. Estoy bastante seguro además que la próxima generación de gráficas tendrá un rendimiento bastante mayor a las turing en ia y raytracing, mas que por aumentar la miniaturización, porque para cuando eso habrá bastante software testeado y se sabrá por donde funcionaban bien las turing y por donde se pueden optimizar, no solamente a nivel de drivers, sino también a nivel físico, de los circuitos. Espero que aún así tarde una buena temporada en salir esa nueva generación, si nos dejan medio tranquilos con esto por lo menos al 2020 se lo agradecería infinito, ahora lo que toca es desarrollar software mas que seguir mejorando hardware, además es muchísimo mas prioritario.

Nos pensamos que el retraso en que salga software nuevo se debe a agotar antes el stock de gráficas pascal, en parte será así, pero también estoy seguro de que es porque realmente no hay software apenas que lo haga, y el que hay está lejos de estar maduro. Ya no solo es porque el software esté en estado alpha o beta, o no rinda como prometieron, creo que es porque ahora mismo están empezando realmente a explorar todo esto y todo está en estado pre-alpha mas bien.

PD. Creo también ahora que el DLSS, a pesar de todo, va a ser una forma "fácil" de aprovechar los tensor cores, antes que de otras maneras, o al menos es la que parece que está mas desarrollada. Además si es cierto lo que prometen, estas gráficas de golpe empezarán a rendir como la gente esperaba que rindieran, o sea, una 2070 al nivel de una 1080ti y a partir de ahí solamente ganancia bruta. Sea como sea, sigue siendo todo esto un truco a fin de cuentas, los frames no son calculados por la gráfica a cuerno uno por uno, como ha sido hasta ahora. Pero bueno, al menos es una base sólida para empezar a implementar el resto de mejoras visuales. El saber que Microsoft va a sacar el direcx ML, una especie de equivalente a esto, me tranquiliza mas que otra cosa, porque a poco que le den soporte esta gente en los controladores, si decidieran mas adelante retirar el DLSS a las gráficas mas antiguas, puede que ahí se pudiera mantener el directx ML, o que directamente no lo quiten siquiera.

hombre, por fin alguien que tambien se va dando cuenta, esto que dices del direcx ML lo puse ayer yo tambien y empezaron los 4 iluminados de este hilo a volver a burlarse de uno, en fin las 100 ultimas paginas de este hilo se han convertido; por una parte los que no dejamos de aportar datos tecnicos, nos hemos comprado las turing y aportamos pruebas de rendimiento, oc, temperaturas y benchmarks
Editado por Scylla. Razón: La imagen sobra
goku593 escribió:A ver, que ya lejos de discusiones, por X pérdida de calidad, que no es tanta, se gana rendimiento. A efectos prácticos es una ganancia de rendimiento directa en el juego. Si en vez de 2K al 100%, es algo menos, vale, lo asumo.


Volvemos al incio de la discusion de hace varias paginas.
No sabemos cuanta calidad se pierde. Como no sabemos cuanta calidad se pierde, porque no hay NADA funcionando con DLSS pues asegurar que se va a perder un 5% de calidad, o un 10%, o un 50% es hablar sin saber. Lo mismo que tu dices "un 5%", yo o cualquier otro podria decir "se pierde un 40%", y ambos estariamos hablando sin saber. Hablamos sobre HUMO.

Ojala sea como tu seguras, un 5% de calidad, OJALA. Y asi sea en la mayoria de juegos. Entonces estare comprando mi 2080ti como todos los demas, y encantado de la vida.

Pero mientras no lo veamos funcionando en la mayoria de juegos, hablar de ello es hablar sobre humo. Comprar una grafica actualmente, pensando que el DLSS va a funcionar como tu dices, es dar un salto de fe en toda regla.

Yo personalmente me mantengo muy muy esceptico que de aqui a 1 año minimo, esta tecnologia se empiece a ver de una manera mas o menos aceptable. Se vera en algun que otro macro-desarrollo, pero en pocos.


@kikomanco por si no te has dado cuenta, llevamos varias paginas hablando sobre el DLSS. Hay varias contribuciones tecnicas, imagenes estaticas, y conjeturas en general. Nadie esta llorando, mas que tu, faltando al respeto 1 de cada 2 mensajes que pones. Luego te quejas de que te banean.
papatuelo escribió:
goku593 escribió:
exter escribió:
Con el Rainbow Six si quieres pueder probar algo parecido. Antes se le llamaba filtro temporal y creo que lo pasaron a T-AA.

La base de la tecnología es esa, lo que nVidia va a hacer es acelerar ese cálculo de AA a partir de no se que magia que no han explicado al detalle.

Yo espero que cuando salga en algun juego, salgan análisis serios de Anandtech o DigitalFoundry analizando el tema.

PD.

En la imagen que han puesto antes del Final Fantasy, yo no lo veo solo un 5% peor, lo veo mucho peor.

La imagen DLSS se ve muy borrosa.


¿Serio Digital Foundry @exter? Vamos, es más serio Michel Quesada...xDD

A ver, que ya lejos de discusiones, por X pérdida de calidad, que no es tanta, se gana rendimiento. A efectos prácticos es una ganancia de rendimiento directa en el juego. Si en vez de 2K al 100%, es algo menos, vale, lo asumo.

Pero vamos, no sé por qué la gente se ofende, estamos hablando. Sin más.

Alberto no he faltado el respeto a nadie. Me gustaría lo mismo por tu parte. Si no sabes mantener una conversación de adulto, no dialogues.


No es ofenderse, es leer barbaridades que no hay por donde cogerlas.

Y las conversaciones de adultos se basan en cinco máximas según Paul Grice, tu te pasa por el forro esta:

Máxima de calidad: Intenta que tu contribución sea verdadera

III. No digas nada que creas que es falso
IV. No digas nada si no tienes pruebas suficientes de su veracidad


¿Tú tienes muchas pruebas de todo eh? Eres el más sabio de este foro. Perdoneme Jen-Hsun Huang.
m0wly escribió:
goku593 escribió:A ver, que ya lejos de discusiones, por X pérdida de calidad, que no es tanta, se gana rendimiento. A efectos prácticos es una ganancia de rendimiento directa en el juego. Si en vez de 2K al 100%, es algo menos, vale, lo asumo.


Volvemos al incio de la discusion de hace varias paginas.
No sabemos cuanta calidad se pierde. Como no sabemos cuanta calidad se pierde, porque no hay NADA funcionando con DLSS pues asegurar que se va a perder un 5% de calidad, o un 10%, o un 50% es hablar sin saber. Lo mismo que tu dices "un 5%", yo o cualquier otro podria decir "se pierde un 40%", y ambos estariamos hablando sin saber. Hablamos sobre HUMO.

Ojala sea como tu seguras, un 5% de calidad, OJALA. Y asi sea en la mayoria de juegos. Entonces estare comprando mi 2080ti como todos los demas, y encantado de la vida.

Pero mientras no lo veamos funcionando en la mayoria de juegos, hablar de ello es hablar sobre humo. Comprar una grafica actualmente, pensando que el DLSS va a funcionar como tu dices, es dar un salto de fe en toda regla.

Yo personalmente me mantengo muy muy esceptico que de aqui a 1 año minimo, esta tecnologia se empiece a ver de una manera mas o menos aceptable. Se vera en algun que otro macro-desarrollo, pero en pocos.


@kikomanco por si no te has dado cuenta, llevamos varias paginas hablando sobre el DLSS. Hay varias contribuciones tecnicas, imagenes estaticas, y conjeturas en general. Nadie esta llorando, mas que tu, faltando al respeto 1 de cada 2 mensajes que pones.

ahi tienes la prueba, venga ahora me vas a decir si merece o no la pena el DLSS
con TAA
Imagen

sin AA
Imagen

con DLSS
Imagen

se ve muchisimo mejor el juego con DLSS que con TAA y mejora muchisimo el rendimiento
@goku593 si es que no ves que no hay mas ciego que el que no quiere ver?
estas imagenes las puse hace un mes, pero entre tanto rage y flame se perdieron, tiene que doler querer una grafica y no tener presupuesto para comprarla [ginyo]
@kikomanco déjalo. El Haterismo de este hilo es nivel (¿?) Jefe Élite. Imposible.
goku593 escribió:@kikomanco déjalo. El Haterismo de este hilo es nivel (¿?) Jefe Élite. Imposible.

typical spanish [mamaaaaa]
goku593 escribió:
papatuelo escribió:
goku593 escribió:
¿Serio Digital Foundry @exter? Vamos, es más serio Michel Quesada...xDD

A ver, que ya lejos de discusiones, por X pérdida de calidad, que no es tanta, se gana rendimiento. A efectos prácticos es una ganancia de rendimiento directa en el juego. Si en vez de 2K al 100%, es algo menos, vale, lo asumo.

Pero vamos, no sé por qué la gente se ofende, estamos hablando. Sin más.

Alberto no he faltado el respeto a nadie. Me gustaría lo mismo por tu parte. Si no sabes mantener una conversación de adulto, no dialogues.


No es ofenderse, es leer barbaridades que no hay por donde cogerlas.

Y las conversaciones de adultos se basan en cinco máximas según Paul Grice, tu te pasa por el forro esta:

Máxima de calidad: Intenta que tu contribución sea verdadera

III. No digas nada que creas que es falso
IV. No digas nada si no tienes pruebas suficientes de su veracidad


¿Tú tienes muchas pruebas de todo eh? Eres el más sabio de este foro. Perdoneme Jen-Hsun Huang.


Ni de coña, pero al menos te he puesto una imagen real para que veas que no es cierto lo que dices y al menos no para de repetir lo mismo aun cuando ya me han corregido 20 veces.
@kikomanco

pero vamos a ver, mas atras hay otra imagen estatica que con el DLSS se ve como el puto orto.
Y no por ello estamos diciendo que el DLSS es una puta mierda. Estamos diciendo QUE HASTA QUE NO SE VEA IMPLEMENTADO EN LA MAYOR PARTE DE JUEGOS HABLAR SOBRE ELLO ES HABLAR DE HUMO.

Que a mi me da igual que una imagen estatica con DLSS se vea como el orto, como la imagen de la pagina anterior.
Y me da igual que otra imagen estatica con DLSS se vea de puto cine.
Obviamente ominitimos que en una imagen (la que se ve como el orto) esta comparando 4K nativo vs 4K con DLSS y la otra esta comparando DLSS vs filtros varios. Es obvio que la comparacion correcta es la de 4K nativo vs 4K DLSS.
Pero obviamos esto ultimo para no entrar en discusiones de besugo sin sentido.

HABLAMOS DE QUE, te lo vuelvo a poner a ver si lo entiendes, HASTA QUE NO ESTE FUNCIONANDO EN MUCHOS MUCHOS JUEGOS, hablar de ello es hablar de humo.

Tu te empeñas en decir que el DLSS es la octava maravilla del mundo.
El resto te decimos que no se puede afirmar si es la octava maravilla del mundo o un fail.
Solo eso. Es facil facil de entender, sin ser "in-jiniero" ni nada.

P.D.: que sepas que no tienes ni pizca de educacion. No sabes escribir 2 posts sin tratar de faltar al respeto
papatuelo escribió:
goku593 escribió:
papatuelo escribió:
No es ofenderse, es leer barbaridades que no hay por donde cogerlas.

Y las conversaciones de adultos se basan en cinco máximas según Paul Grice, tu te pasa por el forro esta:



¿Tú tienes muchas pruebas de todo eh? Eres el más sabio de este foro. Perdoneme Jen-Hsun Huang.


Ni de coña, pero al menos te he puesto una imagen real para que veas que no es cierto lo que dices y al menos no para de repetir lo mismo aun cuando ya me han corregido 20 veces.

¿Pero has visto las imágenes del compañero?
goku593 escribió:@kikomanco déjalo. El Haterismo de este hilo es nivel (¿?) Jefe Élite. Imposible.


Yo creo que lo que hay es ausencia de hater y exceso de fanboy... Porque vamos, decir que una tarjeta tiene X rendimiento con DLSS o RTX sin haber en el mercado juegos que soporten dicha tecnología... tela...

Lo poco que se ha visto es que activando es DLSS ganas rendimiento pero pierdes calidad. Eso ya lo puedes hacer con cualquier gráfica, quitando filtros, detalles de sombras, resolución... Ahora bien, que activando el DLSS se obtenga una calidad de imagen CASI idéntica a 4K pero con un rendimiento mejor que a esta resolución... VEREMOS. De momento, como ya se ha repetido, todo es humo, pues no hay ningún juego que implemente la tecnología (dejad de repetir lo de las 2 demos preparadas que hay, que no dejan de ser eso, demos.
goku593 escribió:
papatuelo escribió:
goku593 escribió:
¿Tú tienes muchas pruebas de todo eh? Eres el más sabio de este foro. Perdoneme Jen-Hsun Huang.


Ni de coña, pero al menos te he puesto una imagen real para que veas que no es cierto lo que dices y al menos no para de repetir lo mismo aun cuando ya me han corregido 20 veces.

¿Pero has visto las imágenes del compañero?


Hay un ginorado hablando así que supongo que te refieres a él, si me la quoteas la podré ver. Pero como sean las imagenes comerciales de Nvidia pues... eso... imagenes comerciales.
goku593 escribió:@kikomanco déjalo. El Haterismo de este hilo es nivel (¿?) Jefe Élite. Imposible.


Pero que haterismo ni que leches.

Hasta que no salga un juego con esto y se pueda probar, todo son suposiciones.

Por eso te digo lo de fuentes serias, ya sea un usuario que lo active y saque capturas, como una web seria que pueda analizar todo lo que hay detrás.

Pero coño que a veces parece que los que os habéis dejado los cuartos os duele que alguien ponga en duda o discrepe de algo que tenéis.

La única realidad que hay aquí es que a ti no te hacía falta cambiar la gpu que tenías, para jugar a 60Hz ibas sobrado, y salieron las nuevas y te enmelonaste, como nos ha pasado a todos alguna vez en la vida, y tiraste de cartera para pillar lo último cuando no tenías necesidad de correr. (Salvo por lo de que vendías a buen precio, eso si)

Seguramente en un mes o dos, con juegos que poder probar, habrías tenido más claro si las promesas de la tecnología realmente cunden.

Dejad ya de poneros a la defensiva porque simplemente no estemos de acuerdo en ciertas cosas. Y Kikomanco que se calme un poco, que parece que tiene 15 años con la rabieta.

No se vosotros, pero yo tengo ya 36 años y llevo sufriendo promesas de tecnologías desde la S3 Virge de 4Mb.
m0wly escribió:@kikomanco

pero vamos a ver, mas atras hay otra imagen estatica que con el DLSS se ve como el puto orto.
Y no por ello estamos diciendo que el DLSS es una puta mierda. Estamos diciendo QUE HASTA QUE NO SE VEA IMPLEMENTADO EN LA MAYOR PARTE DE JUEGOS HABLAR SOBRE ELLO ES HABLAR DE HUMO.

Que a mi me da igual que una imagen estatica con DLSS se vea como el orto, como la imagen de la pagina anterior.
Y me da igual que otra imagen estatica con DLSS se vea de puto cine.
Obviamente ominitimos que en una imagen (la que se ve como el orto) esta comparando 4K nativo vs 4K con DLSS y la otra esta comparando DLSS vs filtros varios. Es obvio que la comparacion correcta es la de 4K nativo vs 4K DLSS.
Pero obviamos esto ultimo para no entrar en discusiones de besugo sin sentido.

HABLAMOS DE QUE, te lo vuelvo a poner a ver si lo entiendes, HASTA QUE NO ESTE FUNCIONANDO EN MUCHOS MUCHOS JUEGOS, hablar de ello es hablar de humo.

Tu te empeñas en decir que el DLSS es la octava maravilla del mundo.
El resto te decimos que no se puede afirmar si es la octava maravilla del mundo o un fail.
Solo eso. Es facil facil de entender, sin ser "in-jiniero" ni nada.

pero si teneis barra libre para echar mierda gratuitamente como llevais haciendo (no te digo solo por ti) casi 2 meses sobre la las graficas serie 20 verdad? es que el hilo si lo coges desde el dia 20 de agosto que se anunciaron las nuevas graficas hasta el dia de hoy, no hay dia que no se hable de;
1- humo
2-estafa
3- nvidia ladrones
4- fanboys de nvidia lerdos por comprar turing
5- fanboys de nvidia que no haceis nadas mas que mentir y desinformar
6- fanboys de nvidia flipaos
y asi me podria tirar hasta mañana con todas las perlas que hemos tenido que ir aguantando en este hilo
exter escribió:
goku593 escribió:@kikomanco déjalo. El Haterismo de este hilo es nivel (¿?) Jefe Élite. Imposible.


Pero que haterismo ni que leches.

Hasta que no salga un juego con esto y se pueda probar, todo son suposiciones.

Por eso te digo lo de fuentes serias, ya sea un usuario que lo active y saque capturas, como una web seria que pueda analizar todo lo que hay detrás.

Pero coño que a veces parece que los que os habéis dejado los cuartos os duele que alguien ponga en duda o discrepe de algo que tenéis.

La única realidad que hay aquí es que a ti no te hacía falta cambiar la gpu que tenías, para jugar a 60Hz ibas sobrado, y salieron las nuevas y te enmelonaste, como nos ha pasado a todos alguna vez en la vida, y tiraste de cartera para pillar lo último cuando no tenías necesidad de correr. (Salvo por lo de que vendías a buen precio, eso si)

Seguramente en un mes o dos, con juegos que poder probar, habrías tenido más claro si las promesas de la tecnología realmente cunden.

Dejad ya de poneros a la defensiva porque simplemente no estemos de acuerdo en ciertas cosas. Y Kikomanco que se calme un poco, que parece que tiene 15 años con la rabieta.

No se vosotros, pero yo tengo ya 36 años y llevo sufriendo promesas de tecnologías desde la S3 Virge de 4Mb.

No entendéis ni tolerais que nuestras suposiciones tienen el mismo valor que las vuestras. Y yo no me arrepiento de haberme gastado los cuartos, lo volvería a hacer, pero ¿para que voy a estar poniendo a parir a Nvidia?
11796 respuestas