NVIDIA "Turing" Nueva Generacion GTX 16x0/Ti -|- RTX 20x0/Ti -|- SUPER

supermuto escribió:
yeye2 escribió:tambien podrias pillar una gtx1080ti de segunda mano que ya estan por 450-500


¿Dónde?.


ebay , si te pones ventas terminadas veras que hay algunas ya que bajan de los 500€ o se quedan cerca , es estar al loro
Mucho ojo, yo acabo de ver una 1080ti founder evga nueva por 420€ la cual hice un instabuy mediante Paypal, despues cuando me e dado cuenta me parecia demasiado bonito para ser cierto, me e puesto a ver los votos, tenía entre ayer y hoy varios negativos por scam de venta en gpus.
E terminado cancelando el pedido al momento en ebay, no voy a tener problema por qué me respalda Paypal, pero es una pérdida de tiempo, así que mucho cuidado.

Edit: Joder pues no me a dejado cancelarlo ebay ya que acaba de ser enviado, veremos en que acaba todo esto, o e triunfado o e perdido el tiempo.
Mejor en foros concidos y respetados y con gente con años activos en el foro y con varios votos positivos.

Abstenerse de wallapop porqe hay autenticos timos.
SECHI escribió:Mejor en foros concidos y respetados y con gente con años activos en el foro y con varios votos positivos.

Abstenerse de wallapop porqe hay autenticos timos.

No todo en wallapop son timos, he vendido varias gráficas en wallapop sin problema, con su factura, incluso les he traído a mi casa para que las probasen...no todos timan.

Vender en foros como eol sin tener votos , es bastante complicado también, ya que todo son problemas sobre todo para el pago...
cuidado tambien con las 1080ti miners editions [666]
kikomanco escribió:cuidado tambien con las 1080ti miners editions [666]


No eran muy buenas minando para el precio, así que no creo que sea problema.
juer que mono tengo de news y que parado esta todo grrrrr. Necesito "filtraciones" de la 2080ti para yaaaaa.
https://www.youtube.com/watch?v=8kQ3l6w ... e=youtu.be

Aquí está la clave y lo explican todo, como resumen.

Juego en estado alpha, con la implementación del RTX super verde, y sin drivers de optimización, en una 2080ti:

1080p funciona con un framerate por encima de 60 fps.
1440p funciona rondando los 60 fps.
4k funciona rondando los 30 y pico fps.

Explican también que al parecer van a haber opciones amplias para configurar el RTX, pudiendo elegir una resolución del juego, y una resolución a parte para los reflejos del RTX pudiendo configurarlo para conseguir mejor framerate y pudiendo mantener los reflejos en tiempo real.

Creo que nos vamos a llevar una buena sorprensa en general con el tema del rendimiento.

Copiado de reddit:

The biggest thing from the videos

Dice developed the game with Titan V with no dedicated RT Core to run specific Ray Tracing functions. They only received Turing 2 weeks before this demo. They are planning to improve the fidelity at launch as Turing can accelerate these functions better than the Tensor Cores in Titan V

Ray tracing is running at 1:1 parity with Raster resolution. DF changed the resolution around and got the following: 1080p @ 60fps, 1440p @ 40-50 fps, and 4K @ 20fps

Dice is planning to allow greater control of RT settings including changing the amount of rays shot per pixel, scaling the RT resolution independent of rasterized resolution (e.g. Game at 4K, RT at 1080p or lower), or using intelligent upscaling of lower resolution RT using AI denoising/checkerboarding.

Expecting 30% RT performance improvement with one type of optimization (merging separate instances in various objects).

Demo is using RT Cores after the rasterization of G-Buffer. They are planning to run the RT Cores in parallel asynchronously.

Dice is happy to have Real time RT in hardware instead of coming up with time-consuming non interactive or inaccurate raster techniques to cover various cases.
KnightSparda escribió:https://www.youtube.com/watch?v=8kQ3l6wN6ns&feature=youtu.be

Aquí está la clave y lo explican todo, como resumen.

Juego en estado alpha, con la implementación del RTX super verde, y sin drivers de optimización, en una 2080ti:

1080p funciona con un framerate por encima de 60 fps.
1440p funciona rondando los 60 fps.
4k funciona rondando los 30 y pico fps.

Explican también que al parecer van a haber opciones amplias para configurar el RTX, pudiendo elegir una resolución del juego, y una resolución a parte para los reflejos del RTX pudiendo configurarlo para conseguir mejor framerate y pudiendo mantener los reflejos en tiempo real.

Creo que nos vamos a llevar una buena sorprensa en general con el tema del rendimiento.

Copiado de reddit:

The biggest thing from the videos

Dice developed the game with Titan V with no dedicated RT Core to run specific Ray Tracing functions. They only received Turing 2 weeks before this demo. They are planning to improve the fidelity at launch as Turing can accelerate these functions better than the Tensor Cores in Titan V

Ray tracing is running at 1:1 parity with Raster resolution. DF changed the resolution around and got the following: 1080p @ 60fps, 1440p @ 40-50 fps, and 4K @ 20fps

Dice is planning to allow greater control of RT settings including changing the amount of rays shot per pixel, scaling the RT resolution independent of rasterized resolution (e.g. Game at 4K, RT at 1080p or lower), or using intelligent upscaling of lower resolution RT using AI denoising/checkerboarding.

Expecting 30% RT performance improvement with one type of optimization (merging separate instances in various objects).

Demo is using RT Cores after the rasterization of G-Buffer. They are planning to run the RT Cores in parallel asynchronously.

Dice is happy to have Real time RT in hardware instead of coming up with time-consuming non interactive or inaccurate raster techniques to cover various cases.

Esta información es muy importante porque básicamente significa que la que tenemos ahora no sirve de nada para ver el rendimiento.
No han tenido tiempo de hacer casi nada.
@KnightSparda gracias por la info. Parecen buenas noticias, si con todo tan verde ya pueden ejecutar el rtx a 4k 30 fps no esta tan mal, a falta de drivers mejores y acabar de pulir juego y rtx. Lo mas interesante es si nos dan opciones de configuracion del rtx y asi cada uno con su equipo puede implementarlo segun la potencia que tenga. Algo de luz al final del tunel [beer]
Joer, pero no está demasiado verde todo para haberlo lanzado???
Si lo mejor de todo es que como dice Adriano, todo lo que hemos visto hasta ahora, básicamente no cuenta, ya que fue creado para usar RTX en una Titan V sin implementar usando los RT cores, básicamente no esta diseñado el RTX del juego para aprovechar los RT cores que es donde van a brillar las tarjetas, y aun así han conseguido un rendimiento más que aceptable teniendo en cuenta todo lo demás dicho, estado alpha, sin drivers de optimización, etc.
frikidaguel escribió:@KnightSparda gracias por la info. Parecen buenas noticias, si con todo tan verde ya pueden ejecutar el rtx a 4k 30 fps no esta tan mal, a falta de drivers mejores y acabar de pulir juego y rtx. Lo mas interesante es si nos dan opciones de configuracion del rtx y asi cada uno con su equipo puede implementarlo segun la potencia que tenga. Algo de luz al final del tunel [beer]


Vamos a tener que aplaudir porque una gráfica de 1300€ pueda mover un juego a 30fps por muy 4k que sea.
Strait escribió:
frikidaguel escribió:@KnightSparda gracias por la info. Parecen buenas noticias, si con todo tan verde ya pueden ejecutar el rtx a 4k 30 fps no esta tan mal, a falta de drivers mejores y acabar de pulir juego y rtx. Lo mas interesante es si nos dan opciones de configuracion del rtx y asi cada uno con su equipo puede implementarlo segun la potencia que tenga. Algo de luz al final del tunel [beer]


Vamos a tener que aplaudir porque una gráfica de 1300€ pueda mover un juego a 30fps por muy 4k que sea.

-Que decimos: esos resultados no son demostrativos, si ya consigue 4k/30fps con drivers de mierda y sin haber tenido tiempo suficiente als graficas es que pueden mejorar.
-Que parece que entiendes tu: madre mia 4k 30 fps eso es lo mejor del mundo mundial quiero 8 graficas de esas y que me cobren 1500 euros por cada una.
Strait escribió:
frikidaguel escribió:@KnightSparda gracias por la info. Parecen buenas noticias, si con todo tan verde ya pueden ejecutar el rtx a 4k 30 fps no esta tan mal, a falta de drivers mejores y acabar de pulir juego y rtx. Lo mas interesante es si nos dan opciones de configuracion del rtx y asi cada uno con su equipo puede implementarlo segun la potencia que tenga. Algo de luz al final del tunel [beer]


Vamos a tener que aplaudir porque una gráfica de 1300€ pueda mover un juego a 30fps por muy 4k que sea.


Desde luego que no, si el resultado final fuera ese seguiria siendo insuficiente, pero no tan ridiculo como lo que vimos en los primeros videos, donde ejecutaban los juegos con rtx entre 30-60 fps. Por eso digo que para mi es una buena noticia, un saludo!
Parece que va a volver que repetirlo, como bien explica DF en el video, los resultados no son demostrativos en absoluto, básicamente han usado la fuerza bruta de las gráficas para mover el RTX, ya que DICE no ha tenido tiempo de enseñar al juego a hacer uso de los RT cores, y simplemente han usado la build que se creo para la Titan V, y aun así han conseguido unos resultados relativamente aceptables.

En el video dicen que en el momento que enseñen a usar a los RT cores, las mejoras limpias pueden ir de un 30 a un 50%, a lo que hay que añadir, drivers que actualmente no hay, futura integración del DLSS, incluso como explican el video sólo para los rayos, esto es, el juego renderizando de manera nativa a 4k, y los rayos renderizandose a 1080p y reescalandose a 4k, para que se vean perfectamente con un coste muy inferior de rendimiento...

Yo creo que el hecho de que las tarjetas posean Cores especificos para RT y DL va a dar mucho juego, y aun nos queda mucho por ver de estas nuevas cacharras, no creo que Nvidia se haya tirado a la piscina y haya cobrado lo que valen por que sí.
Alejandro_Tomas escribió:
kikomanco escribió:cuidado tambien con las 1080ti miners editions [666]


No eran muy buenas minando para el precio, así que no creo que sea problema.

Eso no es cierto, no sabes de 1080ti que hay minando
kikomanco escribió:
Alejandro_Tomas escribió:
kikomanco escribió:cuidado tambien con las 1080ti miners editions [666]


No eran muy buenas minando para el precio, así que no creo que sea problema.

Eso no es cierto, no sabes de 1080ti que hay minando


Claro que es cierto.

El ratio MH/s - coste, sale fatal.

Otra cosa es que haya gente que para tenerla parada prefiera ponerla a minar. Pero comprarlas para minar de forma concreta, ya te digo que no (con conocimiento del tema, vaya).
KnightSparda escribió:Parece que va a volver que repetirlo, como bien explica DF en el video, los resultados no son demostrativos en absoluto, básicamente han usado la fuerza bruta de las gráficas para mover el RTX, ya que DICE no ha tenido tiempo de enseñar al juego a hacer uso de los RT cores, y simplemente han usado la build que se creo para la Titan V, y aun así han conseguido unos resultados relativamente aceptables.

En el video dicen que en el momento que enseñen a usar a los RT cores, las mejoras limpias pueden ir de un 30 a un 50%, a lo que hay que añadir, drivers que actualmente no hay, futura integración del DLSS, incluso como explican el video sólo para los rayos, esto es, el juego renderizando de manera nativa a 4k, y los rayos renderizandose a 1080p y reescalandose a 4k, para que se vean perfectamente con un coste muy inferior de rendimiento...

Yo creo que el hecho de que las tarjetas posean Cores especificos para RT y DL va a dar mucho juego, y aun nos queda mucho por ver de estas nuevas cacharras, no creo que Nvidia se haya tirado a la piscina y haya cobrado lo que valen por que sí.


y esto no lo diras por la fuerte competencia que tienen no? ¬¬
Daicon escribió:
KnightSparda escribió:Parece que va a volver que repetirlo, como bien explica DF en el video, los resultados no son demostrativos en absoluto, básicamente han usado la fuerza bruta de las gráficas para mover el RTX, ya que DICE no ha tenido tiempo de enseñar al juego a hacer uso de los RT cores, y simplemente han usado la build que se creo para la Titan V, y aun así han conseguido unos resultados relativamente aceptables.

En el video dicen que en el momento que enseñen a usar a los RT cores, las mejoras limpias pueden ir de un 30 a un 50%, a lo que hay que añadir, drivers que actualmente no hay, futura integración del DLSS, incluso como explican el video sólo para los rayos, esto es, el juego renderizando de manera nativa a 4k, y los rayos renderizandose a 1080p y reescalandose a 4k, para que se vean perfectamente con un coste muy inferior de rendimiento...

Yo creo que el hecho de que las tarjetas posean Cores especificos para RT y DL va a dar mucho juego, y aun nos queda mucho por ver de estas nuevas cacharras, no creo que Nvidia se haya tirado a la piscina y haya cobrado lo que valen por que sí.


y esto no lo diras por la fuerte competencia que tienen no? ¬¬


Competencia tienen consigo mismos de hecho, si no justifican el sobreprecio con un cambio interesante y potentes mejoras, simplemente la gente se va a limitar a comprar la serie 1000, tenian que justificar el sobreprecio de alguna manera que tiene que notarse, si no mucha gente se limitará a esperar a que baje la serie 1000, o la segunda mano.
Perdonad el offtopic pero tengo curiosidad, por cuanto diríais que se vende una 970 ahora?
Es que lo he estado pensando para cuando me compre la 2070 y depende de lo que me den se la regalo a una amiga que tiene una 740 la pobre xD
adriano_99 escribió:Perdonad el offtopic pero tengo curiosidad, por cuanto diríais que se vende una 970 ahora?
Es que lo he estado pensando para cuando me compre la 2070 y depende de lo que me den se la regalo a una amiga que tiene una 740 la pobre xD


De segunda mano 120-150 euros, según tengo entendido (corregirme si me equivoco).
hi-ban escribió:
adriano_99 escribió:Perdonad el offtopic pero tengo curiosidad, por cuanto diríais que se vende una 970 ahora?
Es que lo he estado pensando para cuando me compre la 2070 y depende de lo que me den se la regalo a una amiga que tiene una 740 la pobre xD


De segunda mano 120-150 euros, según tengo entendido (corregirme si me equivoco).

Sí baja de los 100 para entonces se la regalaré.
Es una gigabyte windforce por cierto.
adriano_99 escribió:
hi-ban escribió:
adriano_99 escribió:Perdonad el offtopic pero tengo curiosidad, por cuanto diríais que se vende una 970 ahora?
Es que lo he estado pensando para cuando me compre la 2070 y depende de lo que me den se la regalo a una amiga que tiene una 740 la pobre xD


De segunda mano 120-150 euros, según tengo entendido (corregirme si me equivoco).

Sí baja de los 100 para entonces se la regalaré.
Es una gigabyte windforce por cierto.


Yo es que si tuviera que vender una 970... Vendí la que tenía hace 2 años por 150€ y ahora no lo haría por menos de lo que lo hice entonces. Bueno, salvo que no estuviera hecha pedazos... La 1070 sigue por encima de 400 y pico euros y la 2070 no le va a hacer tampoco mucha competencia porque se va a ir a 650 !!Y sin poder hacer sli!!. ¿Para qué va nadie a bajar el precio de una gpu de segunda mano si Nvidia en cada generación le mete un subidón? Yo lo tengo clarísimo vaya, antes que una 2070 me voy al sli de 1070 como caigan los precios (que no creo ni de coña). Lo del Ray Tracing con un coste prohibitivo de recursos, no lo veo, la verdad.
@Krain no sabia que la 2070 venia sin nvlink! }:/ pero esto que es? Las 2080 y 2080ti si lo traen y esta no, es un movimiento muy descarado por parte de nvidia, supongo que habran hecho un estudio de mercado y habran llegado a la conclusion de que los futuros compradores de la 2070 tienen el perfil que indica que antes de comprar una nueva generacion, comprarian otra 2070 de segunda mano o muy rebajada. Y seguramente los ahora compradores de 2080 y 2080 ti tienen el perfil de futuros compradores de gpu de nueva generacion. Lo veo muy feo, y me desaparece cualquier esperanza de ver otra vez el sli bien implementado en los nuevos juegos cawento
frikidaguel escribió:@Krain no sabia que la 2070 venia sin nvlink! }:/ pero esto que es? Las 2080 y 2080ti si lo traen y esta no, es un movimiento muy descarado por parte de nvidia, supongo que habran hecho un estudio de mercado y habran llegado a la conclusion de que los futuros compradores de la 2070 tienen el perfil que indica que antes de comprar una nueva generacion, comprarian otra 2070 de segunda mano o muy rebajada. Y seguramente los ahora compradores de 2080 y 2080 ti tienen el perfil de futuros compradores de gpu de nueva generacion. Lo veo muy feo, y me desaparece cualquier esperanza de ver otra vez el sli bien implementado en los nuevos juegos cawento


En pascal ya lo hicieron con la 1060. Está claro que a muchos compradores les puede parecer mejor idea un sli de dos tarjetas de gama media a un coste inferior que la gama entusiasta y con más músculo, pero a Nvidia no. Y yo lo tengo muy claro desde hace tiempo. Mientras mi pc rinda a 60fps 1080p full y la industria juegue al son de las consolas (no quiero ni imaginar el coste real que tendrá para cyberpunk 2077 tener que correr en la ps4 original) no me voy a gastar un sueldo en una gpu.
Lo del SLI de serie 1000 es para pensárselo ahora que están bajando de precio (sobretodo para los que ya tenemos una desde hace tiempo), pero con la cantidad de problemas que da muy baratas se tendrían que poner.
Krain escribió:
frikidaguel escribió:@Krain no sabia que la 2070 venia sin nvlink! }:/ pero esto que es? Las 2080 y 2080ti si lo traen y esta no, es un movimiento muy descarado por parte de nvidia, supongo que habran hecho un estudio de mercado y habran llegado a la conclusion de que los futuros compradores de la 2070 tienen el perfil que indica que antes de comprar una nueva generacion, comprarian otra 2070 de segunda mano o muy rebajada. Y seguramente los ahora compradores de 2080 y 2080 ti tienen el perfil de futuros compradores de gpu de nueva generacion. Lo veo muy feo, y me desaparece cualquier esperanza de ver otra vez el sli bien implementado en los nuevos juegos cawento


En pascal ya lo hicieron con la 1060. Está claro que a muchos compradores les puede parecer mejor idea un sli de dos tarjetas de gama media a un coste inferior que la gama entusiasta y con más músculo, pero a Nvidia no. Y yo lo tengo muy claro desde hace tiempo. Mientras mi pc rinda a 60fps 1080p full y la industria juegue al son de las consolas (no quiero ni imaginar el coste real que tendrá para cyberpunk 2077 tener que correr en la ps4 original) no me voy a gastar un sueldo en una gpu.


Pues creo que es lo mas inteligente que puedes hacer hoy en dia, y mas viendo la escalada de precios tan bestia de los ultimos tiempos, pero para mi ya es tarde, ya pasé por los 144hz y el 4k, y despues no he podido volver a disfrutar jugando a 1080 60, al menos no tanto. Ahora he probado el hdr y tambien me ha enamorado ( en algun juego solamente ) Al final mi hobby esta mas enfocado a ver los avances tecnologicos en los juegos que los propios juegos, acabo jugando bastante poco, pero me encanta ver hasta donde se puede llegar. Obviamente llegara el dia que me plante si esto continua subiendo, porque ya no hay por donde cogerlo.
Es una lastima el lastre que suponen las consolas para el pc, me encantaria que salieran compañias como en su tiempo crytek, con un crysis que nadie pudiera mover, exprimiendo el pc al maximo, como estan haciendo con el star citizen, aunque a mi no me va mucho ese tipo de juegos. Esperemos que no haya downgrade en el cyberpunk, o que al menos permitan mods como hicieron con the witcher 3, que a 4k y mods es espectacular.
Lo de las 1060 ya lo he leido, es muy descarado!
@frikidaguel

Yo compagino pc con la switch, así que imagínate el problema que tengo con jugar a 1080p 60fps [+risas] [+risas] [+risas]
Krain escribió:@frikidaguel

Yo compagino pc con la switch, así que imagínate el problema que tengo con jugar a 1080p 60fps [+risas] [+risas] [+risas]


[flipa] eso es pecado! Jaja ahora en serio, tampoco es que se me quemen los ojos, lo unico que hago es jugar alguna tarde al fifa en la play 4 de un amigo, y al principio pienso que si imputlag, que si ralentizaciones etc pero me acabo semiacostumbrando con tal de no perder [sonrisa]
frikidaguel escribió:
Krain escribió:@frikidaguel

Yo compagino pc con la switch, así que imagínate el problema que tengo con jugar a 1080p 60fps [+risas] [+risas] [+risas]


[flipa] eso es pecado! Jaja ahora en serio, tampoco es que se me quemen los ojos, lo unico que hago es jugar alguna tarde al fifa en la play 4 de un amigo, y al principio pienso que si imputlag, que si ralentizaciones etc pero me acabo semiacostumbrando con tal de no perder [sonrisa]


La switch es pecado en una tv o monitor, en su modo portátil las córneas me aguantan. Y perderse alguna joya de nintendo me parece más pecado que los 720p/30-25-19 fps [+risas] [+risas] [+risas] [+risas]
KnightSparda escribió:https://www.youtube.com/watch?v=8kQ3l6wN6ns&feature=youtu.be

Aquí está la clave y lo explican todo, como resumen.

Juego en estado alpha, con la implementación del RTX super verde, y sin drivers de optimización, en una 2080ti:

1080p funciona con un framerate por encima de 60 fps.
1440p funciona rondando los 60 fps.
4k funciona rondando los 30 y pico fps.

Explican también que al parecer van a haber opciones amplias para configurar el RTX, pudiendo elegir una resolución del juego, y una resolución a parte para los reflejos del RTX pudiendo configurarlo para conseguir mejor framerate y pudiendo mantener los reflejos en tiempo real.

Creo que nos vamos a llevar una buena sorprensa en general con el tema del rendimiento.

Copiado de reddit:

The biggest thing from the videos

Dice developed the game with Titan V with no dedicated RT Core to run specific Ray Tracing functions. They only received Turing 2 weeks before this demo. They are planning to improve the fidelity at launch as Turing can accelerate these functions better than the Tensor Cores in Titan V

Ray tracing is running at 1:1 parity with Raster resolution. DF changed the resolution around and got the following: 1080p @ 60fps, 1440p @ 40-50 fps, and 4K @ 20fps

Dice is planning to allow greater control of RT settings including changing the amount of rays shot per pixel, scaling the RT resolution independent of rasterized resolution (e.g. Game at 4K, RT at 1080p or lower), or using intelligent upscaling of lower resolution RT using AI denoising/checkerboarding.

Expecting 30% RT performance improvement with one type of optimization (merging separate instances in various objects).

Demo is using RT Cores after the rasterization of G-Buffer. They are planning to run the RT Cores in parallel asynchronously.

Dice is happy to have Real time RT in hardware instead of coming up with time-consuming non interactive or inaccurate raster techniques to cover various cases.

Muy buenas noticias. Me alegra leer esto ya que significa que esta tecnología todavía puede dar algo de si en esta generación.
Espero que el RT vaya muy bien y tenga mucho futuro.
NicOtE escribió:
KnightSparda escribió:https://www.youtube.com/watch?v=8kQ3l6wN6ns&feature=youtu.be

Aquí está la clave y lo explican todo, como resumen.

Juego en estado alpha, con la implementación del RTX super verde, y sin drivers de optimización, en una 2080ti:

1080p funciona con un framerate por encima de 60 fps.
1440p funciona rondando los 60 fps.
4k funciona rondando los 30 y pico fps.

Explican también que al parecer van a haber opciones amplias para configurar el RTX, pudiendo elegir una resolución del juego, y una resolución a parte para los reflejos del RTX pudiendo configurarlo para conseguir mejor framerate y pudiendo mantener los reflejos en tiempo real.

Creo que nos vamos a llevar una buena sorprensa en general con el tema del rendimiento.

Copiado de reddit:

The biggest thing from the videos

Dice developed the game with Titan V with no dedicated RT Core to run specific Ray Tracing functions. They only received Turing 2 weeks before this demo. They are planning to improve the fidelity at launch as Turing can accelerate these functions better than the Tensor Cores in Titan V

Ray tracing is running at 1:1 parity with Raster resolution. DF changed the resolution around and got the following: 1080p @ 60fps, 1440p @ 40-50 fps, and 4K @ 20fps

Dice is planning to allow greater control of RT settings including changing the amount of rays shot per pixel, scaling the RT resolution independent of rasterized resolution (e.g. Game at 4K, RT at 1080p or lower), or using intelligent upscaling of lower resolution RT using AI denoising/checkerboarding.

Expecting 30% RT performance improvement with one type of optimization (merging separate instances in various objects).

Demo is using RT Cores after the rasterization of G-Buffer. They are planning to run the RT Cores in parallel asynchronously.

Dice is happy to have Real time RT in hardware instead of coming up with time-consuming non interactive or inaccurate raster techniques to cover various cases.

Muy buenas noticias. Me alegra leer esto ya que significa que esta tecnología todavía puede dar algo de si en esta generación.
Espero que el RT vaya muy bien y tenga mucho futuro.


Pero es que estamos usando la 2080ti que es la tope de gama para hablar de 60 frames en 1080p.

No es que menosprecie las posibilidades que el RayTracing va a brindar (no ahora), conozco bien sus posibilidades, bastantes años como diseñador 3D me han dado ciertas nociones de lo que es capaz el RayTracing, pero no es de recibo ni aceptable que un tope de gama se pelee muy mucho para conseguir 60 fps en 1080p.

Si no es posible encapsular toda esta innovación en una gráfica actual a un precio razonable a día de hoy, pones la tecnología en las GPU de corte profesional, te marcas un marketing de la jostia y luego en la próxima generación ajustas precios y vas a por todas...

Pero 1300 nyapos por 20 FPS en 4K.... cuesta de vender.
saludos
nikocrazy escribió:Mucho ojo, yo acabo de ver una 1080ti founder evga nueva por 420€ la cual hice un instabuy mediante Paypal, despues cuando me e dado cuenta me parecia demasiado bonito para ser cierto, me e puesto a ver los votos, tenía entre ayer y hoy varios negativos por scam de venta en gpus.
E terminado cancelando el pedido al momento en ebay, no voy a tener problema por qué me respalda Paypal, pero es una pérdida de tiempo, así que mucho cuidado.

Edit: Joder pues no me a dejado cancelarlo ebay ya que acaba de ser enviado, veremos en que acaba todo esto, o e triunfado o e perdido el tiempo.



Que es el scam?
shingi- escribió:
NicOtE escribió:
KnightSparda escribió:https://www.youtube.com/watch?v=8kQ3l6wN6ns&feature=youtu.be

Aquí está la clave y lo explican todo, como resumen.

Juego en estado alpha, con la implementación del RTX super verde, y sin drivers de optimización, en una 2080ti:

1080p funciona con un framerate por encima de 60 fps.
1440p funciona rondando los 60 fps.
4k funciona rondando los 30 y pico fps.

Explican también que al parecer van a haber opciones amplias para configurar el RTX, pudiendo elegir una resolución del juego, y una resolución a parte para los reflejos del RTX pudiendo configurarlo para conseguir mejor framerate y pudiendo mantener los reflejos en tiempo real.

Creo que nos vamos a llevar una buena sorprensa en general con el tema del rendimiento.

Copiado de reddit:

The biggest thing from the videos

Dice developed the game with Titan V with no dedicated RT Core to run specific Ray Tracing functions. They only received Turing 2 weeks before this demo. They are planning to improve the fidelity at launch as Turing can accelerate these functions better than the Tensor Cores in Titan V

Ray tracing is running at 1:1 parity with Raster resolution. DF changed the resolution around and got the following: 1080p @ 60fps, 1440p @ 40-50 fps, and 4K @ 20fps

Dice is planning to allow greater control of RT settings including changing the amount of rays shot per pixel, scaling the RT resolution independent of rasterized resolution (e.g. Game at 4K, RT at 1080p or lower), or using intelligent upscaling of lower resolution RT using AI denoising/checkerboarding.

Expecting 30% RT performance improvement with one type of optimization (merging separate instances in various objects).

Demo is using RT Cores after the rasterization of G-Buffer. They are planning to run the RT Cores in parallel asynchronously.

Dice is happy to have Real time RT in hardware instead of coming up with time-consuming non interactive or inaccurate raster techniques to cover various cases.

Muy buenas noticias. Me alegra leer esto ya que significa que esta tecnología todavía puede dar algo de si en esta generación.
Espero que el RT vaya muy bien y tenga mucho futuro.


Pero es que estamos usando la 2080ti que es la tope de gama para hablar de 60 frames en 1080p.

No es que menosprecie las posibilidades que el RayTracing va a brindar (no ahora), conozco bien sus posibilidades, bastantes años como diseñador 3D me han dado ciertas nociones de lo que es capaz el RayTracing, pero no es de recibo ni aceptable que un tope de gama se pelee muy mucho para conseguir 60 fps en 1080p.

Si no es posible encapsular toda esta innovación en una gráfica actual a un precio razonable a día de hoy, pones la tecnología en las GPU de corte profesional, te marcas un marketing de la jostia y luego en la próxima generación ajustas precios y vas a por todas...

Pero 1300 nyapos por 20 FPS en 4K.... cuesta de vender.
saludos


Vuelve a leerte la parte en inglés, donde te dicen que no han hecho ningún tipo de implementacion en el bf5 que ha sido todo a base de fuerza bruta para una build de la titan V, y que que Aún queda muchísimo rendimiento por mejorar, amén de que la personalización de la configuración para el RT va a ser tremenda.
shingi- escribió:... pero no es de recibo ni aceptable que un tope de gama se pelee muy mucho para conseguir 60 fps en 1080p.

Si no es posible encapsular toda esta innovación en una gráfica actual a un precio razonable a día de hoy, pones la tecnología en las GPU de corte profesional, te marcas un marketing de la jostia y luego en la próxima generación ajustas precios y vas a por todas...

Pero 1300 nyapos por 20 FPS en 4K.... cuesta de vender.
saludos


Todas las innovaciones de este corte han sido las que han provocado caidas de rendimiento en las tarjetas. Desde el antialiasin, como las texturas Hd o las sombras volumetricas, por citar solo unos pocos ejemplos. ¿Verdad que ahora mismo seria de locos pensar en jugar a un juego sin sombras?

En el caso de las RTX podrán usar esta nueva tecnologia a 60fps 1080... Las otras es que directamente no podrán poner lo rayitos en escena...

De todas formas esos numero ni mucho menos van a ser los reales. Las tarjetas moveran los juegos un poco mejor. Pero lo que esta claro es que habrá caida de FPS respecto a una 1080ti sin RT. Una 2080ti con RT entiendo que correrá mas lento que una 1080ti sin RT. Pero es que así es este mundillo y así es la tecnologia. Sino aun estaríamos jugando al wolfenstein 3d a 10.000 FPS. Y en eso no consiste el hardware para PC.

Es por eso por lo que cuando leo a la gente clamar al cielo diciendo que se perderan FPS con el RT activado... me da la sensación de cuñadismo brutal. Y lo digo con todo el cariño.
KnightSparda escribió:
shingi- escribió:
NicOtE escribió:Muy buenas noticias. Me alegra leer esto ya que significa que esta tecnología todavía puede dar algo de si en esta generación.
Espero que el RT vaya muy bien y tenga mucho futuro.


Pero es que estamos usando la 2080ti que es la tope de gama para hablar de 60 frames en 1080p.

No es que menosprecie las posibilidades que el RayTracing va a brindar (no ahora), conozco bien sus posibilidades, bastantes años como diseñador 3D me han dado ciertas nociones de lo que es capaz el RayTracing, pero no es de recibo ni aceptable que un tope de gama se pelee muy mucho para conseguir 60 fps en 1080p.

Si no es posible encapsular toda esta innovación en una gráfica actual a un precio razonable a día de hoy, pones la tecnología en las GPU de corte profesional, te marcas un marketing de la jostia y luego en la próxima generación ajustas precios y vas a por todas...

Pero 1300 nyapos por 20 FPS en 4K.... cuesta de vender.
saludos


Vuelve a leerte la parte en inglés, donde te dicen que no han hecho ningún tipo de implementacion en el bf5 que ha sido todo a base de fuerza bruta para una build de la titan V, y que que Aún queda muchísimo rendimiento por mejorar, amén de que la personalización de la configuración para el RT va a ser tremenda.


Lo leí todo, gracias por la recomendación.

A parte de la configuración que puedan añadirle y el 30% de mejora esperado, los números siguen siendo bajísimos.

Si quieres desarrollo un poco más mi explicación:

El rendimiento de fps no solo va ligado a la potencia bruta ni a ver quien la tiene más gorda, son otros negocios los que se benefician de esa nueva necesidad.

Tanto los fabricantes de monitores como otros componentes de "gaming" necesitan de estas "necesidades" (a veces creadas). Cuanto más esfuerzo ponen los fabricantes en crear pantallas con una alta tasa de refresco, con Syncs varios y aumentando una resolución que encima va de la mano con otra vez 144HZ .... no puedes prometer unas gráficas que en su máximo valor añadido no cumplen con ninguno de estos nuevos MÍNIMOS de la industria gamer.

Ya no es por una motivación propia, yo voy con una 970 y tan feliz, estoy basando mi aportación en marketing mismo en posibilidades comerciales y en como vender un producto que va en contra de todo lo que la industria (desde sony y su ps4 pro full 4k "reales") esta creando y vendiendo los últimos años.

El RayTracing es sumamente interesante, seguramente incluso para los que sabemos lo que es en realidad y no todos los que se sumarán ahora como pasó con los Teraflops, sin tener idea alguna, pero si la tecnología no esta lista para ser competente a nivel de precios en el sector "comercial" no la saques. La promocionas en el sector profesional, la mejoras durante esta generación y creas una base y unas expectativas sólidas para la próxima generación.

Lo que tendrás a día de hoy en la gama entusiasta, la que está dispuesta a pagar 1400 euros por una gráfica, es que seguramente ya tienen o acompañan esas inversiones con pantallas de 2k 144hz o 4k y buscan jugarlos a mínimo 60. Si con la gran baza de esta generación que es el RayTracing, sus monitores resultan inútiles o les capan su potencial.... van a tener un problema porque a nivel de marketing no saben ni a quien venden.

saludos

@Cullen recomiendo la lectura de este post, que vi tu aportación después. Dejando a un lado a apreciación de "cuñado" que vaya por mí o no es curioso que la uses citándome cuando soy y he sido diseñador 3D y seguramente conozca más sobre renders y técnicas de iluminación que la mayoría de los que vendrá a postear en este hilo.

No te pongo vídeos hechos por mí para empresas de construcción con métales y procesos de edificación porque quizás se considere spam :)
shingi- escribió:@Cullen recomiendo la lectura de este post, que vi tu aportación después. Dejando a un lado a apreciación de "cuñado" que vaya por mí o no es curioso que la uses citándome cuando soy y he sido diseñador 3D y seguramente conozca más sobre renders y técnicas de iluminación que la mayoría de los que vendrá a postear en este hilo.

No te pongo vídeos hechos por mí para empresas de construcción con métales y procesos de edificación porque quizás se considere spam :)


Lo digo en general no por ti. Por que estamos viendo a mucha gente clamar al cielo por la bajada de FPS. Cuando es totalmente lógico que una tecnologia así haga bajar los FPS. Yo he comprado una 2080ti founders y tengo claro que con ella no correran los juegos a 4k y 120fps con el RT activado. Si llego a superar los 60 FPS en 4k ya sería la bomba. Y si lleagn a los 120 fps en 4k me pareceria algo increible.
@shingi- Estoy de acuerdo contigo, pero por eso te digo, que si tenemos en consideración que el juego según dicen ya rulaba casi a 60 fps en 1440p, si metemos todo lo anteriormente citado en la ecuación, veo perfectamente viable llegar a framerates de 70-80 fps en 1440p, cosa que me parece sobradamente jugable.

Amén de que sólo estamos hablando de la vertiente multi del BF5, yo soy el primero que posiblemente hasta lo quite para el multi, pero no así para la campaña o cualquier otro juego single que lo implemente debidamente.

Se está criticando la tecnología en cuestión, por un sólo juego, con su supuesto rendimiento, en una build chapucera de 2 meses, en alpha y sin drivers ni las tarjetas en el mercado, por lo que se ha visto a ojo en tema de framerate... un poquito de cordura por favor...xD
@shingi-
Los drivers no estaban pulidos.
No estaban usando los tensor cores de turing sino tirando de fuerza bruta.
No estaban disponibles las varias opciones que habrá cuando el juego salga.
Y sabiendo todo eso sigues usando las cifras de rendimiento como si sirviesen de algo.
Aún con todos los factores en contra la tarjeta logra mover el juego a 4k/30 fps ( que es muy fácil mirar solo los 1080/60), no es tan complicado que con toda esa lista de cosas que solucionar acabe rozando o superando los 60fps pero te encabezónate a agarrarte a los resultados con software sin pulir.
Que tal, así como idea, si nos esperamos a los resultados REALES antes de nada?


@Krain
Nunca me he montado un sli y no creo que nunca lo haga salvo que me toque la lotería.
No funciona en todos los juegos y en muchos de los que lo hace es con un rendimiento pésimo, solo le veo sentido si no tienes ninguna GPU mejor que la tuya a la venta.
Y respecto al Ray tracing pues lo dicho, NO sabemos que coste de recursos tiene hasta que no veamos resultados reales con drivers y demás.
No solo lo digo por ti pero como la cosa mejor me veo a mucha gente de este foro echando pestes sobre Nvidia porque su sli no rinde como se esperaba comparado con las nuevas gráficas y volverán a salir los del " Nvidia nos capa con los drivers".
Mi único consejo: esperaos. No tenemos info suficiente ni real.

Respecto a la 970 me dejáis con el culo torcido la verdad, me esperaba que valiese algo mucho más cerca de los 50 que de los 150 xD
Nunca he sido muy fan de la segunda mano y no sé nada de precios.
Adriano, gracias por enumerarlo, ahora guarda esta lista, que habrá que hacer copy paste varias veces, ya que van a haber algunos que todavía vuelvan, a lo de que el rendimiento es una mierda y que no van a pagar 1200€ para jugar a 1080@60...xDD

Interesante conversación de Tom Peterson de Nvidia en una entrevista con hothardware , es un video en origen, pero aquí está la transcripción para mayor comodidad:


HH = HotHardware

TP = Tom Peterson (NVIDIA)

Important Points

HH: What is a Giga Rays?

TP: A giga ray is a billion rays cast per second. A 1080 Ti today can do about 1.1 Giga Rays/s. Compared with 2080 Ti that can do 10 Giga Rays/s. Our number comes from real testing not calculated synthetics benchmark. It's a typical raytraced workload calculating mean average of each workload.

HH: Can people turn on ray tracing mode on non RTX GPUs?

TP: It's up to game developers but most devs coding ray tracing will use Microsoft DXR and that's not NVIDIA proprietary way of coding ray tracing. It's an open way of describing the behavior you want to accomplish for ray tracing. On NVIDIA GPU, especially Turing GPU that's gonna run really well with RTX. The same operations can be emulated on older hardware but it will not run very fast.

HH: On RT Cores and Tensor Cores in Turing. Are they going to be used for RTX or are they going to be exposed in CUDA?

TP: Tensor Cores are exposed through CUDA. RT Cores are enabled through OptiX. OptiX is low level API for ray tracing but developers will most likely use higher level API via RTX or Microsoft DXR.

HH: On DLSS. What is it actually doing? and How is it delivered to gamer?

TP: NVIDIA is using deep learning to train neural network to recognize the sample raster image. Two ways to deliver DLSS: 1) Developers can develop their own AI algorithm 2) More common way -- NVIDIA will use SATURN V supercomputer. Get an early build of the game, run trillions of patterns, generate training data for that game, delivered through game developers or eventually updated in real time.

HH: Can Indie game devs take advantage of DLSS?

TP: Doable to do your own AI algorithm but difficult due to the complexity of AI. Much more likely that developers to work with NVIDIA and integrate AI into the game. NVIDIA is working on a lot of games and not everything is AAA titles.

HH: Can a game developer send their code to NVIDIA for free (for DLSS training)?

TP: Yes. It's not a pay to play thing. NVIDIA is not being paid for it because it's in the interest of the ecosystem and gamers to drive excitement and help the virtuous cycle.

HH: What can gamers who own 1080 can expect with 2080 for current games?

TP: We could've done a better job on this during the public announcement. Turing is a beast. It will significantly improve experience on old game and "rock it" for new technology. We shared some data that shows a bunch of games, you'll see the perf somewhere between 35-45% better at roughly the same generation. In most cases, if you are on high resolution and not CPU limited, Turing is going to crush it!

HH: Should we really expect 2080 to be 50% faster vs 1080 in current game at least in general sense? (referring to the chart released by NVIDIA)

TP: It's accurate provided you are GPU limited (e.g. 4K, 1440p high refresh rate, or with eye candy). If you're already running at 250 FPS and CPU limited, you won't see the difference. I'd like to be as accurate as possible with this: 2080 will be much faster than 1080 for most cases. 50% on traditional games running cases while GPU limited (e.g. 4K, 1440p high refresh, or maximum settings).

HH: Is there a case where 2080 might outperform 1080 Ti?

TP: I think so. I would expect some cases where 2080 would beat 1080 Ti but I don't have the data in front of me.

HH: Are there changes in the GPU that helps with utilization or efficiency improvements?

TP: Yes. Caches are improved. Instructions within pipeline has been improved. How integers are being handled. Much improved native shader cores.

HH: Can games turn on DLSS and ray tracing simultaneously?

TP: Yes

HH: Is NVLink enables new "SLI" or "mGPU" setup?

TP: Today, NVLink is being used to improve SLI. This will improve configurations such as 144Hz 4K surround. NVIDIA is deploying NVLink as a foundation for future mGPU setup.

HH: Will NVLink combines frame buffers in game? (e.g. 2x 8GB GPU will be seen as 16GB GPU)

TP: I think that sets a wrong expectation. That style of memory scaling will require app work. It's true you can set up the memory map to do that but it will be a terrible performance thing. The game will need to know there is latency to access that 2nd chunk of memory and it's not the same. While it's true this is a memory to memory link, I don't think of it as magically doubling the frame buffer. It's more nuanced than that today. It's going to take time for people to understand how people think of mGPU setup and maybe they will look at new techniques. NVLink is laying a foundation for future mGPU setup.

HH: Is Microstuttering a thing of a past with NVLink?

TP: NVLink will improve microstuttering but i don't think it will go away. It's more about the current technique of doing mGPU scaling where it's called AFR. It sends one frame to one GPU and another frame to another GPU. If there is a delay between the 2 GPUs, by the time you combine those frames together and send it to the user, there is a little bit of shift (i.e. Microstutter). A lot of it is how the AFR algorithm work to distribute work and combine them together. Turing has all the previous improvements with SLI (e.g. metering) but it won't go away entirely. More importantly, there are other mGPU technologies that's much more compelling in the future but we're not ready to talk about it today. Think about NVLink as a platform and investment that will be with us for a long time. It brings the 2 GPUs much closer with each other and allow them to communicate with each other without worrying about what's happening on PCIE

HH: Why 2070 does not have NVLink?

TP: It's about the market and how they use SLI at that level. Typically the 1070 has less attachment vs 1080 or 1080 Ti.

HH: How overclockable is Turing?

TP: It's really good. The 2080 FE is built for overclocking on both power and cooling side. The chip is faster than I've ever seen. When you look at raw clocks of Turing vs raw clock of Pascal, I've showed 2.1Ghz with random cards during Editors' day. NVIDIA is also launching NVIDIA Scanner and GPU Boost 4.0. People will hear more about it after NDA expires.

HH: Will NVLink cards support the SLI supported games?

TP: SLI as a brand (motherboards, games, etc) all work with NVLink. Turing changes the connector to NVLink but everything else remains unchanged.

HH: Lots of questions on pricing. MSRP vs AIB pricing. Why are there a wide range of pricing?

TP: Market is going to demand different cards. Partners are going to hit the entire pricepoint between MSRP up to whatever they feel is appropriate price for the value they deliver. In my mind, the question is saying "am i going to ever see the entry point prices?". The truth is yes, you will see those entry prices. The question is about how the partners are approaching the market. Typically when we launch there is more demand vs supply and it increases at launch supply price but we are working hard to drive that down so we have supply at those entry point prices. NVIDIA's solution to this and making sure gamers are getting prices that are fair to gamers is to drive volume. And when volume comes to the market, that's when prices normalized.

HH: Founders edition went from single fan to dual fan. What's the goal behind that? Is it because the GPU needs thermal support or NVIDIA wants to improve the design?

TP: I'm super excited about the new thermal design. We want Founders Edition to be somewhat near the top end of how good you build a card because what we do with FE tends to set the bar for how our partners response. We took feedback last time that blowers are great but a lot of the market prefers dual axial because they are better in general at cooling. Either they can cool more power or they can lower the temp or acoustic. We want to support people who want to push the card as well as people running at stock who wants silent operations. We want Founders Edition to be one of the best cards and in order to be the best cards, we have to be willing to adapt to suggestion.

HH: Any thoughts on watercooled FE?

TP: Unlikely but NVIDIA is not married to air as the best way to cool.

HH: What do you think your customer is going to be most impressed with when they put in the new Turing card?

TP: The most impressive thing for me is the combination of DLSS and Ray Tracing in new games. On the other hand, I'm going to try the existing games and it will satisfy gamers that are pushing the limits today with high-res monitor, high refresh rate, and turning all the eye candy.

tldr:

DLSS - "Two ways to deliver DLSS: 1) Developers can develop their own AI algorithm 2) More common way -- NVIDIA will use SATURN V supercomputer. Get an early build of the game, run trillions of patterns, generate training data for that game, delivered through game developers or eventually updated in real time."

2080 Performance vs 1080 in traditional games - "We shared some data that shows a bunch of games, you'll see the perf somewhere between 35-45% better at roughly the same generation. In most cases, if you are on high resolution and not CPU limited, Turing is going to crush it!"

2080 Performance vs 1080 Ti in traditional games - "(Tom) would expect some cases where 2080 would beat 1080 Ti"

Turing Overclockability - "It's really good. The 2080 FE is built for overclocking on both power and cooling side. The chip is faster than I've ever seen. When you look at raw clocks of Turing vs raw clock of Pascal, I've showed 2.1Ghz with random cards during Editors' day. NVIDIA is also launching NVIDIA Scanner and GPU Boost 4.0. People will hear more about it after NDA expires."
Vaya tocho acabas de soltar @KnightSparda
No hubiera sido mejor poner la fuente?
Puff es que da pereza leerse el tocho y más en Inglés.
Un saludo
KnightSparda escribió:Adriano, gracias por enumerarlo, ahora guarda esta lista, que habrá que hacer copy paste varias veces, ya que van a haber algunos que todavía vuelvan, a lo de que el rendimiento es una mierda y que no van a pagar 1200€ para jugar a 1080@60...xDD

Interesante conversación de Tom Peterson de Nvidia en una entrevista con hothardware , es un video en origen, pero aquí está la transcripción para mayor comodidad:


HH = HotHardware

TP = Tom Peterson (NVIDIA)

Important Points

HH: What is a Giga Rays?

TP: A giga ray is a billion rays cast per second. A 1080 Ti today can do about 1.1 Giga Rays/s. Compared with 2080 Ti that can do 10 Giga Rays/s. Our number comes from real testing not calculated synthetics benchmark. It's a typical raytraced workload calculating mean average of each workload.

HH: Can people turn on ray tracing mode on non RTX GPUs?

TP: It's up to game developers but most devs coding ray tracing will use Microsoft DXR and that's not NVIDIA proprietary way of coding ray tracing. It's an open way of describing the behavior you want to accomplish for ray tracing. On NVIDIA GPU, especially Turing GPU that's gonna run really well with RTX. The same operations can be emulated on older hardware but it will not run very fast.

HH: On RT Cores and Tensor Cores in Turing. Are they going to be used for RTX or are they going to be exposed in CUDA?

TP: Tensor Cores are exposed through CUDA. RT Cores are enabled through OptiX. OptiX is low level API for ray tracing but developers will most likely use higher level API via RTX or Microsoft DXR.

HH: On DLSS. What is it actually doing? and How is it delivered to gamer?

TP: NVIDIA is using deep learning to train neural network to recognize the sample raster image. Two ways to deliver DLSS: 1) Developers can develop their own AI algorithm 2) More common way -- NVIDIA will use SATURN V supercomputer. Get an early build of the game, run trillions of patterns, generate training data for that game, delivered through game developers or eventually updated in real time.

HH: Can Indie game devs take advantage of DLSS?

TP: Doable to do your own AI algorithm but difficult due to the complexity of AI. Much more likely that developers to work with NVIDIA and integrate AI into the game. NVIDIA is working on a lot of games and not everything is AAA titles.

HH: Can a game developer send their code to NVIDIA for free (for DLSS training)?

TP: Yes. It's not a pay to play thing. NVIDIA is not being paid for it because it's in the interest of the ecosystem and gamers to drive excitement and help the virtuous cycle.

HH: What can gamers who own 1080 can expect with 2080 for current games?

TP: We could've done a better job on this during the public announcement. Turing is a beast. It will significantly improve experience on old game and "rock it" for new technology. We shared some data that shows a bunch of games, you'll see the perf somewhere between 35-45% better at roughly the same generation. In most cases, if you are on high resolution and not CPU limited, Turing is going to crush it!

HH: Should we really expect 2080 to be 50% faster vs 1080 in current game at least in general sense? (referring to the chart released by NVIDIA)

TP: It's accurate provided you are GPU limited (e.g. 4K, 1440p high refresh rate, or with eye candy). If you're already running at 250 FPS and CPU limited, you won't see the difference. I'd like to be as accurate as possible with this: 2080 will be much faster than 1080 for most cases. 50% on traditional games running cases while GPU limited (e.g. 4K, 1440p high refresh, or maximum settings).

HH: Is there a case where 2080 might outperform 1080 Ti?

TP: I think so. I would expect some cases where 2080 would beat 1080 Ti but I don't have the data in front of me.

HH: Are there changes in the GPU that helps with utilization or efficiency improvements?

TP: Yes. Caches are improved. Instructions within pipeline has been improved. How integers are being handled. Much improved native shader cores.

HH: Can games turn on DLSS and ray tracing simultaneously?

TP: Yes

HH: Is NVLink enables new "SLI" or "mGPU" setup?

TP: Today, NVLink is being used to improve SLI. This will improve configurations such as 144Hz 4K surround. NVIDIA is deploying NVLink as a foundation for future mGPU setup.

HH: Will NVLink combines frame buffers in game? (e.g. 2x 8GB GPU will be seen as 16GB GPU)

TP: I think that sets a wrong expectation. That style of memory scaling will require app work. It's true you can set up the memory map to do that but it will be a terrible performance thing. The game will need to know there is latency to access that 2nd chunk of memory and it's not the same. While it's true this is a memory to memory link, I don't think of it as magically doubling the frame buffer. It's more nuanced than that today. It's going to take time for people to understand how people think of mGPU setup and maybe they will look at new techniques. NVLink is laying a foundation for future mGPU setup.

HH: Is Microstuttering a thing of a past with NVLink?

TP: NVLink will improve microstuttering but i don't think it will go away. It's more about the current technique of doing mGPU scaling where it's called AFR. It sends one frame to one GPU and another frame to another GPU. If there is a delay between the 2 GPUs, by the time you combine those frames together and send it to the user, there is a little bit of shift (i.e. Microstutter). A lot of it is how the AFR algorithm work to distribute work and combine them together. Turing has all the previous improvements with SLI (e.g. metering) but it won't go away entirely. More importantly, there are other mGPU technologies that's much more compelling in the future but we're not ready to talk about it today. Think about NVLink as a platform and investment that will be with us for a long time. It brings the 2 GPUs much closer with each other and allow them to communicate with each other without worrying about what's happening on PCIE

HH: Why 2070 does not have NVLink?

TP: It's about the market and how they use SLI at that level. Typically the 1070 has less attachment vs 1080 or 1080 Ti.

HH: How overclockable is Turing?

TP: It's really good. The 2080 FE is built for overclocking on both power and cooling side. The chip is faster than I've ever seen. When you look at raw clocks of Turing vs raw clock of Pascal, I've showed 2.1Ghz with random cards during Editors' day. NVIDIA is also launching NVIDIA Scanner and GPU Boost 4.0. People will hear more about it after NDA expires.

HH: Will NVLink cards support the SLI supported games?

TP: SLI as a brand (motherboards, games, etc) all work with NVLink. Turing changes the connector to NVLink but everything else remains unchanged.

HH: Lots of questions on pricing. MSRP vs AIB pricing. Why are there a wide range of pricing?

TP: Market is going to demand different cards. Partners are going to hit the entire pricepoint between MSRP up to whatever they feel is appropriate price for the value they deliver. In my mind, the question is saying "am i going to ever see the entry point prices?". The truth is yes, you will see those entry prices. The question is about how the partners are approaching the market. Typically when we launch there is more demand vs supply and it increases at launch supply price but we are working hard to drive that down so we have supply at those entry point prices. NVIDIA's solution to this and making sure gamers are getting prices that are fair to gamers is to drive volume. And when volume comes to the market, that's when prices normalized.

HH: Founders edition went from single fan to dual fan. What's the goal behind that? Is it because the GPU needs thermal support or NVIDIA wants to improve the design?

TP: I'm super excited about the new thermal design. We want Founders Edition to be somewhat near the top end of how good you build a card because what we do with FE tends to set the bar for how our partners response. We took feedback last time that blowers are great but a lot of the market prefers dual axial because they are better in general at cooling. Either they can cool more power or they can lower the temp or acoustic. We want to support people who want to push the card as well as people running at stock who wants silent operations. We want Founders Edition to be one of the best cards and in order to be the best cards, we have to be willing to adapt to suggestion.

HH: Any thoughts on watercooled FE?

TP: Unlikely but NVIDIA is not married to air as the best way to cool.

HH: What do you think your customer is going to be most impressed with when they put in the new Turing card?

TP: The most impressive thing for me is the combination of DLSS and Ray Tracing in new games. On the other hand, I'm going to try the existing games and it will satisfy gamers that are pushing the limits today with high-res monitor, high refresh rate, and turning all the eye candy.

tldr:

DLSS - "Two ways to deliver DLSS: 1) Developers can develop their own AI algorithm 2) More common way -- NVIDIA will use SATURN V supercomputer. Get an early build of the game, run trillions of patterns, generate training data for that game, delivered through game developers or eventually updated in real time."

2080 Performance vs 1080 in traditional games - "We shared some data that shows a bunch of games, you'll see the perf somewhere between 35-45% better at roughly the same generation. In most cases, if you are on high resolution and not CPU limited, Turing is going to crush it!"

2080 Performance vs 1080 Ti in traditional games - "(Tom) would expect some cases where 2080 would beat 1080 Ti"

Turing Overclockability - "It's really good. The 2080 FE is built for overclocking on both power and cooling side. The chip is faster than I've ever seen. When you look at raw clocks of Turing vs raw clock of Pascal, I've showed 2.1Ghz with random cards during Editors' day. NVIDIA is also launching NVIDIA Scanner and GPU Boost 4.0. People will hear more about it after NDA expires."

Excelente entrevista, me la guardo :P
Uffff la parte que le pregunta que si la 2080 será más potente que la 1080ti y contesta que cree que en algunos casos si.... Me a matado....

No lo tienen ni claro ellos, por eso no pusieron rendimiento en la presentacion...
No es que no lo tengan ni claro ellos, es que este tío básicamente no esta metido en ese tema, en el video completo se ve, el lo dice, dice que no está seguro por que no ha visto pruebas sintéticas comparandose, pero vamos, que no es misterio, que dependerá de los casos, pero en potencia bruta, ya se ha visto que más o menos la 2080 será un 10% más que una 1080ti, osea un 45%-50% más que una 1080.

Si donde hay más misterio es en otras cuestiones como el tema que dicen del OC, que al parecer según han comentado varias fuentes, van a ocear como bestias, no se si habeis visto que en varios videos se ha visto como con el software de EVGA pasaban una 2080ti de 1500 y pico mhz de core a 2100, sin despeinarse, cosa que mencionan en esta entrevista, y no me hagais mucho caso, pero hablamos de un 33% de oc respecto a la frecuencia base...

La 2080ti tiene un chip inmenso de grande, y ella es la que más sorpresas de rendimiento bruto puede dar.
El Oc casi como las 1080ti, pasa de los 1500 y poco a los casi 2100...
Sabemos que la 2080ti rendirá más que la 1080ti no esperamos menos, la cuestión es si se quedará como la segunda, tercera o cuarta apuesta .....

Al final los que vendan la 1080ti se arrepentirán, espero equivocarme....
El tema es que se ha comparado ya el rendimiento de las 2080 frente a las 1080ti oceadas, no se han comparado modelos oceados, ya que las turing mostradas todas vienen de serie salvo la FE que lleva un mísero OC.

Las 1080ti venian con boost a 1700 y pico hasta la más cutre y los modelos avanzados ya venían a 1900 y pico con el boost, y las 2080ti vienen con boost a 1500 y algo lo cual es una gran diferencia.

Yo con un +50% con respecto a la 1080ti, me daría con un canto.
la imgen del 3DMark time spy de la supuesta 2080 lleva oc el nucleo esta a 2025 mhz

mi 1080 Ti FE de stock llega a 1911 Mhz aunque se mantiene estable en 1870 mhz o por ahí , con oc llega a 2050 aunque por temperatura baja rapido a 2038 luego 2025 mhz y se mantiene a 2012 mhz siempre y cuando no pase de 70º
Ese +35/45% coincide con la filtracion del Timespy, donde la 2080 vendria sacandole eso precisamente, alrededor del 35% a la 1080.

La cosa es que he leído que Timespy en principio deberia ser un bench favorable a Turing con respecto a Pascal por el async compute.
11796 respuestas