NVIDIA "Turing" Nueva Generacion GTX 16x0/Ti -|- RTX 20x0/Ti -|- SUPER

yo voy a esperar q salgan bench pero de los juegos sin usar el modo nuevo este de iluminado,a ver q tal van si no me quedo con la 1080 ti.
cristiano.88 escribió:Donde estén los 120 o 144hz que se quiten los "rayitos"

Por mas que intentéis continuamente quitarle valor llamándole "rayitos" no va a dejar de ser la mejor y mas realista técnica de iluminación jamas aplicada en tiempo real.
Y te cito a ti por poner un ejemplo pero dejad de mentir y desinformar coño.
Ni es una simple opción gráfica ni es algo propiedad de nvidia como el hairworks es el puto futuro que nos acercará a los gráficos fotorealistas mucho mas de lo que lo harán simples aumentos de potencia bruta.
De verdad que alucino en un foro que supuestamente va de tecnologia como está el patio.


Que os parecen carisimas y un "robo"? Me parece perfecto.
Pero no digáis cosas que no son por la pura rabia por el precio.

@paco_man
En absolutamente ningun momento he dicho que no sean demasiado caras, no te confundas.
El problema es que gente que no puede o no quiere gastarse lo que valen lleva paginas y paginas metiendo mierda contra una nueva tecnologia que es impresionante por pura pataleta.
Yo no voy a decirle a nadie que comprarse ni cuanto gastarse pero coño, ya basta con las tonterías de los "rayitos" y demás que la gente no para de repetir como loros.
adriano_99 escribió:
cristiano.88 escribió:Donde estén los 120 o 144hz que se quiten los "rayitos"

Por mas que intentéis continuamente quitarle valor llamándole "rayitos" no va a dejar de ser la mejor y mas realista técnica de iluminación jamas aplicada en tiempo real.
Y te cito a ti por poner un ejemplo pero dejad de mentir y desinformar coño.
Ni es una simple opción gráfica ni es algo propiedad de nvidia como el hairworks es el puto futuro que nos acercará a los gráficos fotorealistas mucho mas de lo que lo harán simples aumentos de potencia bruta.
De verdad que alucino en un foro que supuestamente va de tecnologia como está el patio.


Que os parecen carisimas y un "robo"? Me parece perfecto.
Pero no digáis cosas que no son por la pura rabia por el precio.

@paco_man
En absolutamente ningun momento he dicho que no sean demasiado caras, no te confundas.
El problema es que gente que no puede o no quiere gastarse lo que valen lleva paginas y paginas metiendo mierda contra una nueva tecnologia que es impresionante por pura pataleta.
Yo no voy a decirle a nadie que comprarse ni cuanto gastarse pero coño, ya basta con las tonterías de los "rayitos" y demás que la gente no para de repetir como loros.

Ya veremos, estás dando muchas cosas por sentado por 3 demos.
adriano_99 escribió:
cristiano.88 escribió:Donde estén los 120 o 144hz que se quiten los "rayitos"

Por mas que intentéis continuamente quitarle valor llamándole "rayitos" no va a dejar de ser la mejor y mas realista técnica de iluminación jamas aplicada en tiempo real.
Y te cito a ti por poner un ejemplo pero dejad de mentir y desinformar coño.
Ni es una simple opción gráfica ni es algo propiedad de nvidia como el hairworks es el puto futuro que nos acercará a los gráficos fotorealistas mucho mas de lo que lo harán simples aumentos de potencia bruta.
De verdad que alucino en un foro que supuestamente va de tecnologia como está el patio.


Que os parecen carisimas y un "robo"? Me parece perfecto.
Pero no digáis cosas que no son por la pura rabia por el precio.

@paco_man
En absolutamente ningun momento he dicho que no sean demasiado caras, no te confundas.
El problema es que gente que no puede o no quiere gastarse lo que valen lleva paginas y paginas metiendo mierda contra una nueva tecnologia que es impresionante por pura pataleta.
Yo no voy a decirle a nadie que comprarse ni cuanto gastarse pero coño, ya basta con las tonterías de los "rayitos" y demás que la gente no para de repetir como loros.

Ami no me da rabia por el precio, si mañana quisiera una no tengo problema en comprarla, pero que como se comenta por aquí cuando esta técnica tan maravillosa funcione decentemente, la 2080ti estará ya obsoleta, y a pasado con muchas tecnologías pasadas, sino mirar con la serie 9 y el famoso preparado para dx12, la mejor gráfica para dx12, a día de hoy el DX 12 no vale para nada y la serie 9 se a quedado desfasada, por eso el tema del precio, que pagar 1300 euros para ser conejillos de laboratorio pues como que no, a parte que no me creo que sea la tope de gama, algo falta por sacar, una 2080ti X seguro, porque de partida cuántas veces a hecho esto Nvidia, sacar todas las naves el mismo día ...
adriano_99 escribió:
cristiano.88 escribió:Donde estén los 120 o 144hz que se quiten los "rayitos"

Por mas que intentéis continuamente quitarle valor llamándole "rayitos" no va a dejar de ser la mejor y mas realista técnica de iluminación jamas aplicada en tiempo real.
Y te cito a ti por poner un ejemplo pero dejad de mentir y desinformar coño.
Ni es una simple opción gráfica ni es algo propiedad de nvidia como el hairworks es el puto futuro que nos acercará a los gráficos fotorealistas mucho mas de lo que lo harán simples aumentos de potencia bruta.
De verdad que alucino en un foro que supuestamente va de tecnologia como está el patio.


Que os parecen carisimas y un "robo"? Me parece perfecto.
Pero no digáis cosas que no son por la pura rabia por el precio.

@paco_man
En absolutamente ningun momento he dicho que no sean demasiado caras, no te confundas.
El problema es que gente que no puede o no quiere gastarse lo que valen lleva paginas y paginas metiendo mierda contra una nueva tecnologia que es impresionante por pura pataleta.
Yo no voy a decirle a nadie que comprarse ni cuanto gastarse pero coño, ya basta con las tonterías de los "rayitos" y demás que la gente no para de repetir como loros.


Quizás es, que No todo el mundo tiene el mismo Nivel de "asombro" que tu. [fiu]
terriblePICHON escribió:
adriano_99 escribió:
cristiano.88 escribió:Donde estén los 120 o 144hz que se quiten los "rayitos"

Por mas que intentéis continuamente quitarle valor llamándole "rayitos" no va a dejar de ser la mejor y mas realista técnica de iluminación jamas aplicada en tiempo real.
Y te cito a ti por poner un ejemplo pero dejad de mentir y desinformar coño.
Ni es una simple opción gráfica ni es algo propiedad de nvidia como el hairworks es el puto futuro que nos acercará a los gráficos fotorealistas mucho mas de lo que lo harán simples aumentos de potencia bruta.
De verdad que alucino en un foro que supuestamente va de tecnologia como está el patio.


Que os parecen carisimas y un "robo"? Me parece perfecto.
Pero no digáis cosas que no son por la pura rabia por el precio.

@paco_man
En absolutamente ningun momento he dicho que no sean demasiado caras, no te confundas.
El problema es que gente que no puede o no quiere gastarse lo que valen lleva paginas y paginas metiendo mierda contra una nueva tecnologia que es impresionante por pura pataleta.
Yo no voy a decirle a nadie que comprarse ni cuanto gastarse pero coño, ya basta con las tonterías de los "rayitos" y demás que la gente no para de repetir como loros.

Ami no me da rabia por el precio, si mañana quisiera una no tengo problema en comprarla, pero que como se comenta por aquí cuando esta técnica tan maravillosa funcione decentemente, la 2080ti estará ya obsoleta, y a pasado con muchas tecnologías pasadas, sino mirar con la serie 9 y el famoso preparado para dx12, la mejor gráfica para dx12, a día de hoy el DX 12 no vale para nada y la serie 9 se a quedado desfasada, por eso el tema del precio, que pagar 1300 euros para ser conejillos de laboratorio pues como que no, a parte que no me creo que sea la tope de gama, algo falta por sacar, una 2080ti X seguro, porque de partida cuántas veces a hecho esto Nvidia, sacar todas las naves el mismo día ...


Mantle, los ocho núcleos de los fx de amd que iban a rendir un 200% más en el futuro, los 4 gb que en realidad eran 3.5, el propio dx12 que no vale para nada hoy en día...

será que no hay ejemplos de ello, y al contrario, la gente cuando se la trataban de colar con estas cancamusas se excusaba y defendía en muchos casos a capa y espada a los fabricante, supongo que porque no costaban 1300 euros...

Y esto no es una estafa, como todo lo nombrado anteriormente, es una tecnología revolucionaria que simplemente está en bragas.
adriano_99 escribió:
cristiano.88 escribió:Donde estén los 120 o 144hz que se quiten los "rayitos"

Por mas que intentéis continuamente quitarle valor llamándole "rayitos" no va a dejar de ser la mejor y mas realista técnica de iluminación jamas aplicada en tiempo real.
Y te cito a ti por poner un ejemplo pero dejad de mentir y desinformar coño.
Ni es una simple opción gráfica ni es algo propiedad de nvidia como el hairworks es el puto futuro que nos acercará a los gráficos fotorealistas mucho mas de lo que lo harán simples aumentos de potencia bruta.
De verdad que alucino en un foro que supuestamente va de tecnologia como está el patio.


Que os parecen carisimas y un "robo"? Me parece perfecto.
Pero no digáis cosas que no son por la pura rabia por el precio.

@paco_man
En absolutamente ningun momento he dicho que no sean demasiado caras, no te confundas.
El problema es que gente que no puede o no quiere gastarse lo que valen lleva paginas y paginas metiendo mierda contra una nueva tecnologia que es impresionante por pura pataleta.
Yo no voy a decirle a nadie que comprarse ni cuanto gastarse pero coño, ya basta con las tonterías de los "rayitos" y demás que la gente no para de repetir como loros.

El precio es lo revolucionario, el precio...

Los rayitos no valen para nada, al menos hoy día.

Pocos juegos van a implementarlo, acuérdate. Si las consolas nuevas integran algo así pues entonces empezaremos a hablar de algo estadarizado y revolucionario. De mientras esto solo será una estrategia más de Nvidia para sacarle el dinero a cuatro frikis.
Si ponen rayitos en el Minecraft.... SLi de 2080Ti !!!!
cristiano.88 escribió:
adriano_99 escribió:
cristiano.88 escribió:Donde estén los 120 o 144hz que se quiten los "rayitos"

Por mas que intentéis continuamente quitarle valor llamándole "rayitos" no va a dejar de ser la mejor y mas realista técnica de iluminación jamas aplicada en tiempo real.
Y te cito a ti por poner un ejemplo pero dejad de mentir y desinformar coño.
Ni es una simple opción gráfica ni es algo propiedad de nvidia como el hairworks es el puto futuro que nos acercará a los gráficos fotorealistas mucho mas de lo que lo harán simples aumentos de potencia bruta.
De verdad que alucino en un foro que supuestamente va de tecnologia como está el patio.


Que os parecen carisimas y un "robo"? Me parece perfecto.
Pero no digáis cosas que no son por la pura rabia por el precio.

@paco_man
En absolutamente ningun momento he dicho que no sean demasiado caras, no te confundas.
El problema es que gente que no puede o no quiere gastarse lo que valen lleva paginas y paginas metiendo mierda contra una nueva tecnologia que es impresionante por pura pataleta.
Yo no voy a decirle a nadie que comprarse ni cuanto gastarse pero coño, ya basta con las tonterías de los "rayitos" y demás que la gente no para de repetir como loros.

Ya veremos, estás dando muchas cosas por sentado por 3 demos.

La diferencia es que yo no solo he visto esas demos sino que he trabajado y usado ese método para iluminar escenas creadas por mi.
He llegado a tirarme de 8 a 10 minutos para renderizar cada frame en una simple cocina con muebles y vajilla de bajisimo poligonaje sin ningun personaje con un nada malo ryzen 1700 con oc a 4Ghz.
Y esto logra aplicar esos mismos cálculos basados en como se comporta la luz en la vida real sin tener que crear reflejos con luces falsas a tiempo real.
Si, de momento sólo lo aplican de forma parcial pero aun usando escenas super cargadas para videojuegos triple A mueven a tiempo real ese mismo tipo de iluminación.
Es una absoluta salvajada y algo que puede reemplazar en un futuro ,cuando se abandone el antiguo método de rasterizacion , cientos o incluso miles de horas de trabajo manual colocando luces falsas por cálculos del hardware.
Es que ya no sólo es una gran mejora visual sino que cuando se aplique en todos los juegos por norma general los desarrolladores tendrán cientos de horas para pulir los otros aspectos del juego o incluso hacer los procesos mas cortos y baratos.

@terriblePICHON
Se llama ser early adopter y es normal que no todo el mundo esté dispuesto a serlo pero es necesario que alguien lo sea para que llegue lo mejor.

@TheBalaks
Si no te asombra una tecnologia que puede ser la mejor revolución en como iluminamos en mas de 10 años o una de dos o te la suda la tecnologia o no tienes ni idea de que va el tema.

@Prototiper
Leete alguno de los varios posts donde he explicado que es y como funciona el ray tracing.
No lo ha inventado nvidia y hace muchos años que existe, lo que ha hecho nvidia es crear un tupo de núcleos para als tarjetas graficas que permiten hacerlo ( de momento de forma parcial) en tiempo real.
Y no es que nos lo intenten colar es que ya se ha demostrado que es posible y los desarrolladores lo están aplicando ya.
adriano_99 escribió:
cristiano.88 escribió:
adriano_99 escribió:Por mas que intentéis continuamente quitarle valor llamándole "rayitos" no va a dejar de ser la mejor y mas realista técnica de iluminación jamas aplicada en tiempo real.
Y te cito a ti por poner un ejemplo pero dejad de mentir y desinformar coño.
Ni es una simple opción gráfica ni es algo propiedad de nvidia como el hairworks es el puto futuro que nos acercará a los gráficos fotorealistas mucho mas de lo que lo harán simples aumentos de potencia bruta.
De verdad que alucino en un foro que supuestamente va de tecnologia como está el patio.


Que os parecen carisimas y un "robo"? Me parece perfecto.
Pero no digáis cosas que no son por la pura rabia por el precio.

@paco_man
En absolutamente ningun momento he dicho que no sean demasiado caras, no te confundas.
El problema es que gente que no puede o no quiere gastarse lo que valen lleva paginas y paginas metiendo mierda contra una nueva tecnologia que es impresionante por pura pataleta.
Yo no voy a decirle a nadie que comprarse ni cuanto gastarse pero coño, ya basta con las tonterías de los "rayitos" y demás que la gente no para de repetir como loros.

Ya veremos, estás dando muchas cosas por sentado por 3 demos.

La diferencia es que yo no solo he visto esas demos sino que he trabajado y usado ese método para iluminar escenas creadas por mi.
He llegado a tirarme de 8 a 10 minutos para renderizar cada frame en una simple cocina con muebles y vajilla de bajisimo poligonaje sin ningun personaje con un nada malo ryzen 1700 con oc a 4Ghz.
Y esto logra aplicar esos mismos cálculos basados en como se comporta la luz en la vida real sin tener que crear reflejos con luces falsas a tiempo real.
Si, de momento sólo lo aplican de forma parcial pero aun usando escenas super cargadas para videojuegos triple A mueven a tiempo real ese mismo tipo de iluminación.
Es una absoluta salvajada y algo que puede reemplazar en un futuro ,cuando se abandone el antiguo método de rasterizacion , cientos o incluso miles de horas de trabajo manual colocando luces falsas por cálculos del hardware.
Es que ya no sólo es una gran mejora visual sino que cuando se aplique en todos los juegos por norma general los desarrolladores tendrán cientos de horas para pulir los otros aspectos del juego o incluso hacer los procesos mas cortos y baratos.

@terriblePICHON
Se llama ser early adopter y es normal que no todo el mundo esté dispuesto a serlo pero es necesario que alguien lo sea para que llegue lo mejor.

@TheBalaks
Si no te asombra una tecnologia que puede ser la mejor revolución en como iluminamos en mas de 10 años o una de dos o te la suda la tecnologia o no tienes ni idea de que va el tema.

@Prototiper
Leete alguno de los varios posts donde he explicado que es y como funciona el ray tracing.
No lo ha inventado nvidia y hace muchos años que existe, lo que ha hecho nvidia es crear un tupo de núcleos para als tarjetas graficas que permiten hacerlo ( de momento de forma parcial) en tiempo real.
Y no es que nos lo intenten colar es que ya se ha demostrado que es posible y los desarrolladores lo están aplicando ya.


Típico comercial que llega a tu casa y te quiere hacer comprar un producto si o si. [noop] Nadie ha dicho que este mal dicha tecnología. Pero es demasiado caro gastar en algo que está en pañales. Por ahí hay gente desactivando la rtx para poder tener 1080p 60fps. Que si que tiene reflejos, sombras muy chulas pero a mi tampoco es que me Flipe en colores. Esta bien si ¿y? ¿Que pasa?. He escuchado tantas veces decir que algo es futuro... Ejemplo, el 3d y mira en lo que ha quedado... Lo que te flipa a ti, no tiene por qué flipar al mismo nivel a otro. Repito no seré yo quien se deje el dinero en proyección de sombras y reflejos.por muy chulos que se vea a la cantidad desproporcionada que está ahora mismo. Si tu puedes y te flipa bien por ti [oki]
Que si, que el ray-tracing es el futuro y que se pueda hacer en "tiempo real" es asombroso. Eso nadie lo niega.
Lo unico que decimos es que lo que ofrece el RTX HOY en el estado ACTUAL está DEMASIADO VERDE como para justificar el precio RIDICULAMENTE CARO que tienen. Que es el doble de precio de lo normal en toda la gama, joder.

No se puede sacar a la venta un producto y pretender cobrar un precio ridiculamente desorbitado por una característica que si, que promete para un futuro cercano, pero que todavía está tan verde que nadie la va a querer usar en su estado actual.

Se supone que el ray-tracing debería de quitar trabajo a la GPU porque calcula luces y sombras usando nucleos independientes, con lo cual la GPU se ve liberada de tener que calcular un monton de efectos de iluminación y sombreado que por lo general demandan muchos recursos, y la tasa de frames por segundo debería de MEJORAR bastante con el RTX activado.
Pero está tan verde que no solo NO MEJORA, sino que EMPEORA, hasta el punto de no poder llegar a los 60fps en unos miseros 1080p.

El dia que el hecho de activar el RTX no te baje ni un solo fps, entonces a partir de ahí ya será algo "apto para el consumo" porque llegaremos al punto en el que activar el RTX da beneficios sin pérdida. PEro no olvidemos que el RTX, ademas de ser mas bonito, debería de tener el efecto colateral de aumentar los fps, y nunca de disminuirlos.
cristiano.88 escribió:
adriano_99 escribió:
cristiano.88 escribió:Donde estén los 120 o 144hz que se quiten los "rayitos"

Por mas que intentéis continuamente quitarle valor llamándole "rayitos" no va a dejar de ser la mejor y mas realista técnica de iluminación jamas aplicada en tiempo real.
Y te cito a ti por poner un ejemplo pero dejad de mentir y desinformar coño.
Ni es una simple opción gráfica ni es algo propiedad de nvidia como el hairworks es el puto futuro que nos acercará a los gráficos fotorealistas mucho mas de lo que lo harán simples aumentos de potencia bruta.
De verdad que alucino en un foro que supuestamente va de tecnologia como está el patio.


Que os parecen carisimas y un "robo"? Me parece perfecto.
Pero no digáis cosas que no son por la pura rabia por el precio.

@paco_man
En absolutamente ningun momento he dicho que no sean demasiado caras, no te confundas.
El problema es que gente que no puede o no quiere gastarse lo que valen lleva paginas y paginas metiendo mierda contra una nueva tecnologia que es impresionante por pura pataleta.
Yo no voy a decirle a nadie que comprarse ni cuanto gastarse pero coño, ya basta con las tonterías de los "rayitos" y demás que la gente no para de repetir como loros.

Ya veremos, estás dando muchas cosas por sentado por 3 demos.


Él tiene bastante razón. No son tres demos. Esto del ray tracing lleva años trabajándose y aplicándose a toda clase de efectos de películas y CGI´s. Es el sueño húmedo de cualquier desarrollador: automatizar las luces con un efecto real... en tiempo real. Una de las armas para romper el uncanny valley.

La cuestión es si es el presente, porque actualmente no parece muy compatible con hacia donde se dirigía la industria: la batalla de los 4k a altas frecuencias. Pero es su apuesta, desde luego.
adriano_99 escribió: @Prototiper
Leete alguno de los varios posts donde he explicado que es y como funciona el ray tracing.
No lo ha inventado nvidia y hace muchos años que existe, lo que ha hecho nvidia es crear un tupo de núcleos para als tarjetas graficas que permiten hacerlo ( de momento de forma parcial) en tiempo real.
Y no es que nos lo intenten colar es que ya se ha demostrado que es posible y los desarrolladores lo están aplicando ya.


Ya los he leído [oki] , pero que exista el concepto no quiere decir que se materialice, del mismo modo que los coches eléctricos se inventaron a principios del siglo XX, pero es Elon Musk en el XXI con Tesla el que ha puesto las herramientas necesarias para llevarlo a cabo.

No estoy equiparando en importancia una cosa con la otra eh [qmparto] [qmparto]
TheBalaks escribió:
Típico comercial que llega a tu casa y te quiere hacer comprar un producto si o si. [noop] Nadie ha dicho que este mal dicha tecnología. Pero es demasiado caro gastar en algo que está en pañales. Por ahí hay gente desactivando la rtx para poder tener 1080p 60fps. Que si que tiene reflejos, sombras muy chulas pero a mi tampoco es que me Flipe en colores. Esta bien si ¿y? ¿Que pasa?. He escuchado tantas veces decir que algo es futuro... Ejemplo, el 3d y mira en lo que ha quedado... Lo que te flipa a ti, no tiene por qué flipar al mismo nivel a otro. Repito no seré yo quien se deje el dinero en proyección de sombras y reflejos.por muy chulos que se vea a la cantidad desproporcionada que está ahora mismo. Si tu puedes y te flipa bien por ti [oki]

En ningún momento he tratado de decir que no sean caras pero me da mucha rabia ver esto lleno de gente llamándolo " rayitos" despectivamente para intentar que parezca menos de lo que es.
Esta generación va a ser corta porque claramente es algo muy nuevo y para early adopter.
Es normal que mucha gente no esté dispuesto a serlo pero no hace falta desprestigiar una tecnología porque aún no es accesible.

@Prototiper
Por supuesto que es una tecnología que está en pañales pero lo que digo es que no son sólo unos " rayitos".
Y la gran diferencia con eso que dices es que hay grandes empresas y países que llevan décadas luchando porque el coche eléctrico no sea lo que debió ser hace mucho sin embargo no hay nadie a quien beneficie que se sigan usando luces falsas.
No soy adivino y no se cuál yo tiene por va a llevar que esto sea un estandar pero pongo la mano en el fuego a que lo será y esto es el principio de algo muy grande.
Si encima de encender los rayos para que se vea de cojones , tengo que jugar a 1080p 60fps y sin mantenerlos me bajo del carro en marcha.

Yo que busco fluidez y resolución , (prefiero2k 144hz a 4k 60hz) me gasto 1300 euros y no llego ni a 1440p a 60 hz, me da algo.

Me acuerdo del the Witcher 3 y el pelo pantene famoso, que se veía de cojones y todo eso, y lo ponías y se comía los fps que no veas, tenías que cortarle el pelo con una coleta y andar con trucos para que fuera relativamente estable y bien, pues esto tiene pinta de lo mismo, hasta pasado un tiempo pasará igual, no funcionará bien... Y sino al tiempo.

Lo que me parece rarísimo es lo que comentado de sacar todos los modelos del tirón, y que no pongan como años atrás el tema del rendimiento con la generación anterior, que viendo las especificaciones de la 2080 frente a la 1080ti no se yo si encima rendirá menos....esto si que me tiene mosca.
Ahí va un pensamiento.... tenemos una nueva generación de tarjetas... pero tenemos un gran stock de las pascal.... si ponemos pruebas de que éstas son mejores... la gente no compra el stock.
Vale, las sacamos y hacemos pensar que las pascal casi que son mejores y que son más baratas, total las nuevas van con los rayos pero parece ser que aunque los quiten en el battlefield a 1080p 60fr no rinde bien, la 2080ti eh,,, no es moco de pavo.... guay, les vendemos el stock. Cuando ya se crean que han sido los más listos por pillarse una 1080ti por 500 pavos. Sacamos drivers para que vayan algo peor y las nuevas de repente mejoren bastante... Conclusión, nos quitamos el stock que no se iba a vender ni de coña y encima querrán las nuevas también....
Win Win para nvidia.
pienso que para los que busquen potencia bruta y vean que el Battlefield V o el Tomb Raider no va a poder correr a 4K y 60fps estables por el tema del ray tracing va a haber muchas quejas. Las pijadas gráficas no lo son todo cuando se juega
Yo creo que unos de los problemas que tiene el raytracing es que el público en general no tiene ni idea de que va (yo me enteré hace "dos" días) , no saben los recursos que son necesarios para aplicarlo, por lo tanto no valora lo que consiguen las rtx, y sobre todo que el resultado grafico por los ejemplos que nos están enseñando pues tampoco es que sea una revolución ( a ojos de un no entendido).

La iluminación precalculada utilizada hoy día da muy bien el pego, además es poco exigente y te permite jugar a altas resoluciónes y frames.
Mientras raytracing si, es mucho más real, es el futuro, pero en la actualidad te tienes que gastar un pastizal en una GPU que además aún no son suficientemente potentes para mover está tecnología con soltura.
¿Entre una y otra hay diferencia palpable?¿Está justificado el precio? Pues creo que para el 90% de los jugadores no.
Difícil lo va a tener las rtx para convencer si "solo" se agarran al raytracing.

Esperaremos a las reviews a ver como queda el asunto finalmente pero por ahora tras lo visto para mí pinta muy mal, iba a jubilar la 970 pero ni de coña me gasto 600€ en una 2070 y tampoco me voy a pillar una Pascal de hace 2 años, seguiré como estoy.
FZ1 escribió:Ahí va un pensamiento.... tenemos una nueva generación de tarjetas... pero tenemos un gran stock de las pascal.... si ponemos pruebas de que éstas son mejores... la gente no compra el stock.
Vale, las sacamos y hacemos pensar que las pascal casi que son mejores y que son más baratas, total las nuevas van con los rayos pero parece ser que aunque los quiten en el battlefield a 1080p 60fr no rinde bien, la 2080ti eh,,, no es moco de pavo.... guay, les vendemos el stock. Cuando ya se crean que han sido los más listos por pillarse una 1080ti por 500 pavos. Sacamos drivers para que vayan algo peor y las nuevas de repente mejoren bastante... Conclusión, nos quitamos el stock que no se iba a vender ni de coña y encima querrán las nuevas también....
Win Win para nvidia.


Claro que si, depuraran todo con sus mega divers e ira todo 4k 144 FPS con raytracing que lo flipas, eso sí las drogas las pones tu [looco]
(mensaje borrado)
@adriano_99 Me importa un pimiento, esas tarjetas tienen mucho sobreprecio. Además yo lo siento pero los gráficos los marca las consolas, si la próxima generación de consolas no tiene Raytracing es tirar el dinero en la gama 20XX de Nvidia porque para 15 o 20 juegos que lo utilizar y encima mal, me quedo como estoy.

Eso suponiendo que el Raytracing de Nvidia sea libre porque sino lo es mal vamos.

Saludos.
Miedo me da lo calientes que deben ser esta generación si desde las founder, hasta las EVGA han tenido que aumentar tanto la disipación. Menudo tocho de disipador al estilo AMP extreme se han marcado los de EVGA para la 2080Ti, si no es más grande.
Aquí se puede ver sobre el minuto 2,30
https://www.youtube.com/watch?v=HgUFSc7LwHg
Jexux escribió:Miedo me da lo calientes que deben ser esta generación si desde las founder, hasta las EVGA han tenido que aumentar tanto la disipación. Menudo tocho de disipador al estilo AMP extreme se han marcado los de EVGA para la 2080Ti, si no es más grande.
Aquí se puede ver sobre el minuto 2,30
https://www.youtube.com/watch?v=HgUFSc7LwHg


A nadie le ha llamado la atención los +500 Mhz que le ha cascado al core en el minuto 3:40 ? ¬_¬
terriblePICHON escribió:Si encima de encender los rayos para que se vea de cojones , tengo que jugar a 1080p 60fps y sin mantenerlos me bajo del carro en marcha.

Yo que busco fluidez y resolución , (prefiero2k 144hz a 4k 60hz) me gasto 1300 euros y no llego ni a 1440p a 60 hz, me da algo.

Me acuerdo del the Witcher 3 y el pelo pantene famoso, que se veía de cojones y todo eso, y lo ponías y se comía los fps que no veas, tenías que cortarle el pelo con una coleta y andar con trucos para que fuera relativamente estable y bien, pues esto tiene pinta de lo mismo, hasta pasado un tiempo pasará igual, no funcionará bien... Y sino al tiempo.

Lo que me parece rarísimo es lo que comentado de sacar todos los modelos del tirón, y que no pongan como años atrás el tema del rendimiento con la generación anterior, que viendo las especificaciones de la 2080 frente a la 1080ti no se yo si encima rendirá menos....esto si que me tiene mosca.



Imagino que han salido todas de golpe porque el salto de rendimiento es pequeño, no se donde lei que la 2080 podria no superar a la 1080Ti, de ahi que hayan tenido que lanzar ya la 2080Ti.
DaNi_0389 escribió:
Imagino que han salido todas de golpe porque el salto de rendimiento es pequeño, no se donde lei que la 2080 podria no superar a la 1080Ti, de ahi que hayan tenido que lanzar ya la 2080Ti.


Pues si la 2080 no supera a la 1080Ti (salvo en el RayTracing obviamente), menuda decepción la verdad.

Yo estaba esperando por una GPU mucho más potente para poder jugar tranquilamente con los Pimax 8K (que con desde los últimos Tests, ya recomiendan una 1080 mínimo), pero creo que esta serie 20XX no van a ser.

A ver que tal AMD con las Navi el año que viene :-|


Salu2
Anandtech también dice que la 2080ti en Battelfield 5 tampoco alcanza los 60fps a 1080p con Raytracing activado.

https://www.anandtech.com/show/13261/hands-on-with-the-geforce-rtx-2080-ti-realtime-raytracing?utm_source=twitter&utm_medium=social


Pobre de los compradores de 2080 y 2070 que esperen jugar con Raytracing [+risas] [+risas]
Madre mía que precios, el que compro pascal en su salida o antes de la minería al final hasta hizo buena inversión. Y aun recuerdo que nos tirábamos de los pelos entre comillas por la subida que había recibido respecto a maxwell. Pero lo de esta nueva gama ya es demencial, solo espero que no normalicen esto y luego nos parezca normal pagar 650 euros por una gama xx70, porque si llega ese momento muchos se bajaran del carro y no podrán disfrutar de su hobbie. Las grandes beneficiadas de este movimiento pueden ser las consolas, ya que si la gente empieza a dejar el mundillo por todos estos precios al alza que se están viendo(rams por las nubes, ahora también las gráficas, por no hablar de los periféricos que también se están subiendo a la parra algunas marcas.... ¿Que sera lo siguiente?), las consolas pueden ocupar ese nicho de mercado.

En fin, esperaremos a ver las reviews a ver que nos ofrecen realmente para gaming, aunque sin comentarios por parte del ceo, mal asunto. Porque si ofreciesen un cambio brutal respecto a pascal en todos los sentidos y no solo en raytracing, ¿lo anunciarías a los cuatro vientos no?

Edit: Aunque bueno, esto ultimo puede ser debido a querer vender el stock de pascal y no destapar la liebre, aunque no parece el caso
Lo de raytracing en bf5 y tombraider no hagais mucho caso, parece que esta muy mal optimizado todavia. De hecho han dicho que tombraider saldra sin raytracing y sera un parche posterior.
Aun asi, la cosa no parece que pinte muy bien. Olvidandose de los rayos, si para mover 4k hay que irse si o si a la 2080ti.....Que largo se va a hacer el mes que queda para que se levante el NDA
ChrisRedfield escribió:Lo de raytracing en bf5 y tombraider no hagais mucho caso, parece que esta muy mal optimizado todavia. De hecho han dicho que tombraider saldra sin raytracing y sera un parche posterior.
Aun asi, la cosa no parece que pinte muy bien. Olvidandose de los rayos, si para mover 4k hay que irse si o si a la 2080ti.....Que largo se va a hacer el mes que queda para que se levante el NDA


Vaya, va a ser un parche a posteriori. Por qué no me sorprende?
Y de Bf5 no han dicho nada. Esto está muy verde señores. Probablemente hará falta 20 o 30 gigarays para que la cosa sea a coste 0. Y la 2080ti tiene 10...veremos la 3080ti..
Metalhead escribió:
Jexux escribió:Miedo me da lo calientes que deben ser esta generación si desde las founder, hasta las EVGA han tenido que aumentar tanto la disipación. Menudo tocho de disipador al estilo AMP extreme se han marcado los de EVGA para la 2080Ti, si no es más grande.
Aquí se puede ver sobre el minuto 2,30
https://www.youtube.com/watch?v=HgUFSc7LwHg


A nadie le ha llamado la atención los +500 Mhz que le ha cascado al core en el minuto 3:40 ? ¬_¬


Hostia no me fijé cuando vi el video, y la grafica está a 2105Mhz!! [flipa]

Yo solo espero que en compute normal FP32 el salto de la Titan Xp a la 2080ti sea de un 20-30% con la gpu pasada por agua y con el mayor OC posible.
ChrisRedfield escribió:Lo de raytracing en bf5 y tombraider no hagais mucho caso, parece que esta muy mal optimizado todavia. De hecho han dicho que tombraider saldra sin raytracing y sera un parche posterior.
Aun asi, la cosa no parece que pinte muy bien. Olvidandose de los rayos, si para mover 4k hay que irse si o si a la 2080ti.....Que largo se va a hacer el mes que queda para que se levante el NDA

Pues si queda un mes de NDA nos espera un mes de rumores y más rumores..
nomg escribió:
ChrisRedfield escribió:Lo de raytracing en bf5 y tombraider no hagais mucho caso, parece que esta muy mal optimizado todavia. De hecho han dicho que tombraider saldra sin raytracing y sera un parche posterior.
Aun asi, la cosa no parece que pinte muy bien. Olvidandose de los rayos, si para mover 4k hay que irse si o si a la 2080ti.....Que largo se va a hacer el mes que queda para que se levante el NDA

Pues si queda un mes de NDA nos espera un mes de rumores y más rumores..


Según leí en unos comentarios en Videocardz, WhyCry dijo que hoy se les pasa mas info e imagino que las Gpus a los reviewers, así que quizá entre hoy y mañana sabremos mas :)
https://elchapuzasinformatico.com/2018/08/la-geforce-rtx-2080-ti-ejecutaria-juegos-4k-60-100-fps-sin-rtx/

No saben ya lo que decir, hace un rato que no podía y ahora que sí..... madre mía si tuviera una escopeta a mano..... me quedaba sólo...... que asco todo....
javielviciao escribió:https://elchapuzasinformatico.com/2018/08/la-geforce-rtx-2080-ti-ejecutaria-juegos-4k-60-100-fps-sin-rtx/

No saben ya lo que decir, hace un rato que no podía y ahora que sí..... madre mía si tuviera una escopeta a mano..... me quedaba sólo...... que asco todo....

A ver, ese tio Borja 1º que no tiene ni puñetera idea de nada, sólo hay que ver las noticias que escribe, el cualquier cosa que lee lo añade como noticia, si dentro de 1h lee en algún lugar que con la 2080Ti te regalan un viaje, creará la notica [qmparto] [qmparto] [qmparto]
Nunca he entendido esa web que de conocimiento del mundo periodístico/hard/videojuegos/seriedad/fiable/experiencia tiene lo que Kratos tiene de gay :Ð
Es mejor que esperemos los bench fiables y comparativas para ver la realidad.
Mucho RTX, pero los que esperabamos una GTX 2080 nos quedamos chafados!!

La verdad es que podrian sacar una nueva gama una vez que liquiden las GTX 10X0, una gama RTX y otra GTX seria lo mas conveniente.
deltonin escribió:Mucho RTX, pero los que esperabamos una GTX 2080 nos quedamos chafados!!

La verdad es que podrian sacar una nueva gama una vez que liquiden las GTX 10X0, una gama RTX y otra GTX seria lo mas conveniente.

No habíamos leído por algún lado modelos 2080+??? quizás lo he soñado [qmparto]
Me suena de algo, a ver si son un AS en la manga por si patinan con las RTX, (GTX 2080+ sin RTX) :Ð
NVIDIA GeForce RTX 2080 Ti Performance Previewed: ofrece más de 100 FPS a resolución 4K y configuraciones Ultra en juegos AAA, rendimiento de seguimiento de rayos detallado

Aunque no hemos tenido la oportunidad de comparar la tarjeta a fondo, pudimos jugar varios juegos de PC a 4K y más de 60 fotogramas por segundo (fps) con el RTX 2080 Ti en el evento GeForce Gaming Celebration de Nvidia en la Gamescom 2018.

En términos de velocidad de fotogramas, Shadow of the Tomb Raider funcionó a 50-57 fps, lo cual es impresionante dado que el juego se ejecuta en una sola GPU y en un estado tan temprano, además de todas las nuevas técnicas de trazado de rayos.

También jugamos una variedad de otros juegos de PC que no se nombrarán, y vimos un rendimiento superior a 100 fps en configuraciones 4K y Ultra. Desafortunadamente, tampoco sabemos cuánta potencia tuvieron que extraer estas GPU para alcanzar este nivel de rendimiento
javielviciao escribió:https://elchapuzasinformatico.com/2018/08/la-geforce-rtx-2080-ti-ejecutaria-juegos-4k-60-100-fps-sin-rtx/

No saben ya lo que decir, hace un rato que no podía y ahora que sí..... madre mía si tuviera una escopeta a mano..... me quedaba sólo...... que asco todo....

Tendremos que saber que juegos son esos, pero lógicamente la 2080ti tiene que dar más de si respecto a la 1080ti... El problema son las otras tanto la 2080, como la 2070.

Un 20% de rendimiento extra me parecería poquísimo para la inversión que es....

El vídeo de la evga no entiendo cómo ponen la 2080 con tres ventiladores y la TI con dos.
Y en la caja pone 2080ti ftw3 y luego es una sc2.
Para que evga meta ese disipador, se tiene que calentar bastante...ya que por ejemplo la 1080ti tanto sc2 como ftw3 monta el disipador que ocupa dos slot, en la sc2 no funciona tanto como en la ftw3 pero es correcto....
alanwake escribió:
javielviciao escribió:https://elchapuzasinformatico.com/2018/08/la-geforce-rtx-2080-ti-ejecutaria-juegos-4k-60-100-fps-sin-rtx/

No saben ya lo que decir, hace un rato que no podía y ahora que sí..... madre mía si tuviera una escopeta a mano..... me quedaba sólo...... que asco todo....

A ver, ese tio Borja 1º que no tiene ni puñetera idea de nada, sólo hay que ver las noticias que escribe, el cualquier cosa que lee lo añade como noticia, si dentro de 1h lee en algún lugar que con la 2080Ti te regalan un viaje, creará la notica [qmparto] [qmparto] [qmparto]
Nunca he entendido esa web que de conocimiento del mundo periodístico/hard/videojuegos/seriedad/fiable/experiencia tiene lo que Kratos tiene de gay :Ð
Es mejor que esperemos los bench fiables y comparativas para ver la realidad.


Pero a ver, el rendimiento de mierda es con el RTX activo, nadie ha discutido que la 2080ti tiene más potencia bruta que la 1080ti. El problema es ese, pagar la morterada por una tecnología que te penaliza tanto el rendimiento.
Lo mejor es esperar a las 3XXX/4XXX y ahi ya se podrá usar el RT sin mucha perdida de rendimiento.
elcapoprods escribió:Lo mejor es esperar a las 3XXX/4XXX y ahi ya se podrá usar el RT sin mucha perdida de rendimiento.


Entonces sacarán una nueva tecnología de partículas mega detalladas y dirán que en las sombras no se fija nadie. Pero las partículas molarán un montón y podrás jugar en 24 fps modo cinemático con explosiones y niebla y chispitas de la leche!

100% REAL NO FAKE 1 LINK MEGA
No me imagino una lighting o una kingpin lo que pueden llegar a pedir, 1500-1800? Qué pasada de verdad....
Te pillas una de salida y tres meses después hace un movimiento Nvidia de sacar algo mejor y me puede dar algo....
Para cuándo tendremos pruebas de rendimiento, temperatura, consumo etc etc
Esto me parece un vídeo muy interesante de ver si entiendes el ingles: https://www.youtube.com/watch?v=mLIgfT04wsY
Así a grandes rasgos:
-ray tracing va a super un gran cambio en la industria pero va a venir con un gran coste en forma de perder durante un tiempo los altos rangos de fps, entienden que a alguien que tiene un monitor con alta capacidad de refresco esto no guste
-Se espera que sea una generación bastante mas corta que pascal
-nvidia necesitaba en la presentación por encima de todo que se entendiese que es la nueva tecnologia y porque es necesaria



La verdad es que cada vez me parece mas que nvidia ha tomado el camino mas arriesgado y dificil pudiendo simplemente lanzar lo que parece que todos aquí querían: simplemente mas potencia bruta haciendo lo mismo pero mejor.
Yo personalmente prefiero el cambio pero entiendo que haya mucha gente que no y esté levantando ampollas.
adriano_99 escribió:Esto me parece un vídeo muy interesante de ver si entiendes el ingles: https://www.youtube.com/watch?v=mLIgfT04wsY
Así a grandes rasgos:
-ray tracing va a super un gran cambio en la industria pero va a venir con un gran coste en forma de perder durante un tiempo los altos rangos de fps, entienden que a alguien que tiene un monitor con alta capacidad de refresco esto no guste
-Se espera que sea una generación bastante mas corta que pascal
-nvidia necesitaba en la presentación por encima de todo que se entendiese que es la nueva tecnologia y porque es necesaria



La verdad es que cada vez me parece mas que nvidia ha tomado el camino mas arriesgado y dificil pudiendo simplemente lanzar lo que parece que todos aquí querían: simplemente mas potencia bruta haciendo lo mismo pero mejor.
Yo personalmente prefiero el cambio pero entiendo que haya mucha gente que no y esté levantando ampollas.


Si la innovación es siempre bienvenida, pero entonces no puedes vender un producto "inacabado" o sin pulir, como si ya estuviera asentada la tecnología en el mercado y funcionase a la perfección. Ahora nos encontramos las dos siguientes casuisticas:
[*]Quiero jugar con RayTracing = Hay gráficas capaces de hacerlo, pero con una calidad de resolución / frames de hace varios años. Total, que pagas la tecnología a precio de oro para jugar como el ojete (Porque me hará gracia ver a gente jugando al online del Battlefield V a 30 fps)
[*]Quiero jugar a 4k@120fps = No se sabe si hay gráficas capaces de hacerlo (ya que no hay benchmarks), pero las que en teoría lo permiten, llevan un sobreprecio escandaloso por el RayTracing, el cual hay que desactivar para poder jugar como toca. Total, que pagas un sobreprecio por una característica que no quieres/necesitas/puedes usar.

Esto me recuerda muchísimo al Kinect de la Xbox One, que te metían con calzador por 100€ más. Y al final, la solución fue quitarlo, porque nadie lo usaba. Para mi, Nvidia debería sacar una GTX 2080ti, sustituyendo esos rt cores por nucleos normales, o simplemente quitar los rt cores. Y por supuesto, a un precio de 900€
Lo de la GTX 2080ti es buena idea, y no lo descartes si no venden lo esperado de RTX.
De todas formas, estamos suponiendo muchas cosas sin ningun tipo de datos...solo con dos demos de RTX inacabadas y sin pulir...
albertoooooooooo escribió:
adriano_99 escribió:Esto me parece un vídeo muy interesante de ver si entiendes el ingles: https://www.youtube.com/watch?v=mLIgfT04wsY
Así a grandes rasgos:
-ray tracing va a super un gran cambio en la industria pero va a venir con un gran coste en forma de perder durante un tiempo los altos rangos de fps, entienden que a alguien que tiene un monitor con alta capacidad de refresco esto no guste
-Se espera que sea una generación bastante mas corta que pascal
-nvidia necesitaba en la presentación por encima de todo que se entendiese que es la nueva tecnologia y porque es necesaria



La verdad es que cada vez me parece mas que nvidia ha tomado el camino mas arriesgado y dificil pudiendo simplemente lanzar lo que parece que todos aquí querían: simplemente mas potencia bruta haciendo lo mismo pero mejor.
Yo personalmente prefiero el cambio pero entiendo que haya mucha gente que no y esté levantando ampollas.


Si la innovación es siempre bienvenida, pero entonces no puedes vender un producto "inacabado" o sin pulir, como si ya estuviera asentada la tecnología en el mercado y funcionase a la perfección. Ahora nos encontramos las dos siguientes casuisticas:
[*]Quiero jugar con RayTracing = Hay gráficas capaces de hacerlo, pero con una calidad de resolución / frames de hace varios años. Total, que pagas la tecnología a precio de oro para jugar como el ojete (Porque me hará gracia ver a gente jugando al online del Battlefield V a 30 fps)
[*]Quiero jugar a 4k@120fps = No se sabe si hay gráficas capaces de hacerlo (ya que no hay benchmarks), pero las que en teoría lo permiten, llevan un sobreprecio escandaloso por el RayTracing, el cual hay que desactivar para poder jugar como toca. Total, que pagas un sobreprecio por una característica que no quieres/necesitas/puedes usar.

Esto me recuerda muchísimo al Kinect de la Xbox One, que te metían con calzador por 100€ más. Y al final, la solución fue quitarlo, porque nadie lo usaba. Para mi, Nvidia debería sacar una GTX 2080ti, sustituyendo esos rt cores por nucleos normales, o simplemente quitar los rt cores. Y por supuesto, a un precio de 900€

No es que estén inacabadas es que ningún producto para early adopters funciona igual que cuando la tecnología está avanzada.
Y obviamente estás en tu derecha de preferir potencia bruta que un avance que tiene sus costes pero esto tiene que pasar si o si.
Nunca llegaremos al fotorealismo sin esto y es imposible meterla de la nada sin perder rendimiento
Por eso aún tienes disponible la 1080ti para simplemente potencia bruta.
alanwake escribió:
deltonin escribió:Mucho RTX, pero los que esperabamos una GTX 2080 nos quedamos chafados!!

La verdad es que podrian sacar una nueva gama una vez que liquiden las GTX 10X0, una gama RTX y otra GTX seria lo mas conveniente.

No habíamos leído por algún lado modelos 2080+??? quizás lo he soñado [qmparto]
Me suena de algo, a ver si son un AS en la manga por si patinan con las RTX, (GTX 2080+ sin RTX) :Ð



Dios te oiga, muchos queremos nueva generacion para RV y 2-4k-144hz, pasando de rayos cosmicos e historias.
11796 respuestas