Nvidia, realmente no puedo entenderte

No puedo entender como te esfuerzas tanto en humillar y arrastrar por el suelo el hardware, más concretamente las Tarjetas Graficas, de la competencia y las tuyas propias. No se que ganas al convertir cyberpunk 2077 en una demo técnica, que demuestra lo ridículo, la tomadura de pelo y lo cutre que ha sido el ray tracing, así que para dejarlo bien claro, sacas una configuración de ray tracing mas agresiva, para que tus clientes vean que el camino que sigues es un pozo sin fondo, un agujero negro del rendimiento, dejando de rodillas a la 4090 que no puede a 4k nativos 60 a duras penas, una grafica de 2000 euros, en serio ¿ese es el camino?.
Cada vez tengo mas claro que el ray tracing no va a ser la técnica de iluminación a seguir a futuro.
Donde deja Nvidia a los poseedores de las 3080, 3080 ti, 3090 etc, contentos de saber que el ray tracing que tienen es el cutre y que el bueno el de ahora lo mueven a 30 1080p. Tanta serie 3000 para tener el ray tracing en off.
@Silicio14mm llevas mas razon que un santo pero NVIDIA (como muchas otras compañias) se debe a sus accionistas y al valor bursatil. Deben conseguir de una forma u otra convencernos que necesitamos cambiar de grafica cada dos años. El RT parece que ya no "cuela" asi que nos vendrán con el Ray Path de turno. Ya cada cual que decida si quiere pasar por el aro o no.
Entiendo que tengan que crear la necesidad, para seguir vendiendo graficas, pero esta vez se están cargando la sensación de poder y de ir sobrado que tenias cuando te comprabas una grafica nueva de gama alta, esta vez ponen por los suelos todas las tarjetas graficas actuales y futuras. Porque el ray tracing, llevado a calidad CGI no se va a mover en tiempo real a 60 fps en muchas, muchas generaciones. Así que durante mucho tiempo va a ser un quiero y no puedo sin sentido.
Es como haber querido implantar el DVD en su época en formato video puro sin comprimir y no usar el compresor mpg2. ningún reproductor habría podido con el DVD en bruto, peliculas sin comprimir que pesarían una barbaridad.
No se puede llevar al mundo de los videojuegos una técnica de iluminación, creada para motores de renderización, pensada para crear animaciones cgi en granjas de tarjetas graficas renderizando días para tener una pelicula de animación.
Se están cargando el concepto de optimización y creación de motores gráficos para videojuegos.
la necesidad de utilizar rtx por ejemplo arrastra a querer comprar algo mas potente , con lo cual nunca estas satisfecho simpre te faltara algo y cuando eso lo tengas sacara otra tecnologia , donde hay una necesidad hay un negocio pàra algunos
Está claro es un negocio y tienen que colarte esos precios abusivos, en cuanto vean que sobra potencia para una tecnología tranquilo que sacarán otra para meterte en la cabeza que es la que necesitas y te lo venderán como el futuro. A mi otra práctica que me molesta es lo que hacen con las nuevas tecnologías como Frame Generation o versiones de DLSS que ayudarían bastante a la serie 2000 y 3000 y no las implementen directamente porque no quieren ya que perderían dinero, la opinión de la gente les da exactamente igual.
Estamos todos dentro de este juego, se llama capitalismo. Ellos lo saben y juegan, y tu y todos victima/s formas parte de ello activa y pasivamente y tb jugamos. Pasa con todo y tragamos con ello en infinidad de cosas cada dia. Enjoy, its a trap.
Silicio14mm escribió:No puedo entender como te esfuerzas tanto en humillar y arrastrar por el suelo el hardware, más concretamente las Tarjetas Graficas, de la competencia y las tuyas propias. No se que ganas al convertir cyberpunk 2077 en una demo técnica, que demuestra lo ridículo, la tomadura de pelo y lo cutre que ha sido el ray tracing, así que para dejarlo bien claro, sacas una configuración de ray tracing mas agresiva, para que tus clientes vean que el camino que sigues es un pozo sin fondo, un agujero negro del rendimiento, dejando de rodillas a la 4090 que no puede a 4k nativos 60 a duras penas, una grafica de 2000 euros, en serio ¿ese es el camino?.
Cada vez tengo mas claro que el ray tracing no va a ser la técnica de iluminación a seguir a futuro.
Donde deja Nvidia a los poseedores de las 3080, 3080 ti, 3090 etc, contentos de saber que el ray tracing que tienen es el cutre y que el bueno el de ahora lo mueven a 30 1080p. Tanta serie 3000 para tener el ray tracing en off.

Precisamente ese tipo de pruebas se hacen para dar a entender al publico que sus productos del futuro seran capaces de mover juegos con esas opciones graficas.

Y no les importa que el usuario que ha gastado esa pasta pueda pensar que eso esta obsoleto. No es nada nuevo, pasa con todos los productos de caracter tecnologico. Y en el mundo del PC cambios grandes cada 6 meses no tienen nada de raro.

Asi que el unico problema es que sois nuevos en el hardware de PC, en el capitalismo y no entendeis como funciona. Pero es asi. No es motivo de verguenza no haber visto que esto funciona de este modo.

Y ahora los precios son malos pero creo que hace 23 años la situación era peor porque las mejoras eran cada menos de 6 meses, la diferencia entre tener un hardware, no era conseguir más fps, verlo mejor, era jugar o no jugar. Vamos, quien no se acuerda del año 2007 y el lanzamiento del Supreme Commander, o luego con Crysis 1. En el primero o tenias un Core 2 Duo o es que ni lo podias apenas lanzar. El segundo ya requeria mucha más potencia grafica.

Asi que comparado con antes, al menos ahora, con graficas del 2016, una sencilla GTX 1060, pues puedes jugar a todo. Muchas cosas bastante bien. Y tampoco necesitas una super CPU. Asi que sí, creo que estamos mejor que antes pese a tener precios altos y seguramente estos precios sean porque el hardware no es tan necesario.
Saludos, al contrario, es por llevar tanto en el mundillo que me choca, desde el zx spectrum 48k, pues siempre he vivido un tira y afloja, entre las necesidades que crean las empresas y el hardware que podemos ir adquiriendo, y en el caso del ray tracing, sigo opinando que se les ha ido de las manos han roto el equilibrio y van a tener muchos clientes insatisfechos. Situaciones similares que recuerde, el paso del dx9 a dx10 / 11 con el aumento de características graficas, que si te quedabas obsoleto si no actualizabas, pero si invertías en una buena grafica te ponías al día y podías con todo. Cuando llego el 4k y con mi crossfire de rx 480 no podía, me pase a la 1080ti y cuando se quedo corta pase a la 6800xt, así que si entiendo, el mundillo. Lo único que digo es que si la gente entra en el jugo y a un comprando la 4090 se queda corto, algo falla, han roto el equilibrio entre necesidad y poder saciar dicha necesidad.
Ese es el resumen, crear necesidad, se entiende, crear una necesidad que no se puede cubrir es contraproducente, creas insatisfacción, por lo que la gente va a pasar del ray tracing. Yo me pase de Nvidia 1080ti a AMD 6800xt.
Silicio14mm escribió:y en el caso del ray tracing, sigo opinando que se les ha ido de las manos han roto el equilibrio y van a tener muchos clientes insatisfechos. .

El tema del RT se ha dramatizado quizas demasiado con ello porque no todos los juegos sufren espasmos por usarlo. Los hay como el Cyberpunk que apenas se mueven usandolo, luego hay algunos a los que no le afecto tanto y por ultimo otros tantos donde el consumo es tan gordo pero no se nota nada, meto en este saco a todos los juegos hechos con el motor de Unreal.

El problema que veo por tu replica, es de money y no de hardware. Tu misma respuesta cuenta como fuiste saltando de grafica a grafica segun avanzaba el tiempo. Si ademas quieres jugar a más resolución, pues es lo que hay.

Asi que el hardware cambia cada 6 meses y estar en lo más alto cuesta más. Nada nuevo. Al menos nadie te obliga, puedes volver a una RX480 y seguramente jugar a todo. ;)

Cosa a parte la prueba del Cyberpunk no deja de ser eso, una prueba. Nada más, no es como decir que algun juego use eso.
El problema no es querer estar en lo más alto, el problema es que incluso para una GPU gama media hoy día te soplan 500€. Es decir, si quieres pillar algo que aguante decentemente unos años te toca gastarte una burrada.
La famosa Gtx 1060, que es la gama media de 2016, costaba 250€...se ha duplicado el precio en cuestión de pocos años.

Pero bueno, mientras vendan así nos seguirán estafando.
PHANTASIA escribió:El problema no es querer estar en lo más alto, el problema es que incluso para una GPU gama media hoy día te soplan 500€. Es decir, si quieres pillar algo que aguante decentemente unos años te toca gastarte una burrada.
La famosa Gtx 1060, que es la gama media de 2016, costaba 250€...se ha duplicado el precio en cuestión de pocos años.

Pero bueno, mientras vendan así nos seguirán estafando.

Depende de qué resolución y Hz tenga el monitor, las RX 6600 rinden un buen trecho más que la GTX 1060 y cuestan unos 240-250€ más o menos también.

Saludos.
Comprendo que es un tema de desahogo, pero no tiene sentido, que esa tecnica de RT es una mierda, pues si, pero es una evolucion.

¿Es necesario el 8K?
No

¿Es necesario el 4K?
Pues tampoco es una locura en monitores de 20" a 32" comparado con QHD, pero hay que evolucionar.

Tampoco nadie te obliga a gastarte 2000€ en una grafica, te la compras por que tu quieres, a la mayoria de gente que juega en PC le das una RTX 3070 o RX 6700 XT y les sobra grafica por todos los lados, tenemos que recordar que FHD es el estandar actual y eso lo mueve graficas de hace muchos años decentemente.....
Yo siempre he visto el raytracing, independientemente de que se haya usado como marketing, como algo enfocado mas hacia los desarrolladores que al usuario final. Vamos que se podrían ahorrar trabajo y tiempo a la hora de poner luces, reflejos y demás, pero al final como tienen que dar compatibilidad con el mayor número de hardware posible, tienen que hacer los dos trabajos igualmente.

Y no es algo que me haya llamado tanto la atención como por ejemplo, el nanite o meta human del Unreal, eso sí me flipó en su día, el RT pues... meh, vale, está bien... pero a qué coste?

Esto es un poco como lo fue el Crysis en su día, que no lo movía ni dios a tope con soltura. Y al fin y al cabo lo que han hecho CDPR y Nvidia es una preview de una tecnología, así que no hay que darle mayor importancia.

Y es que este mundo siempre ha sido así y cada vez mas y en un plazo menor, lo último que te compres dejará de ser un pepino.

Estamos en un punto en que los precios no tienen lógica ninguna para el hardware actual y en que los juegos empiezan a demandar requisitos mayores (fallos aparte) sin que percibamos novedades o mejoras que te dejen con la boca abierta.

Total, que yo seguiré mi política de los últimos que me he montado y es la de intentar aguantar el equipo base 10 años y cambiar de gráfica cada 5 o 6, así que al menos hasta la serie 6000 no verán un duro mío.

Resumiendo: yo invertiría mi tiempo en jugar con lo que tengo, en vez de patalear, discutir, echar mierda... etc. La ultritis y la PC master race hacen mucho daño y al final no compensa la inversión con la mejora conseguida, hacedme caso, después de casi 40 años en el mundillo lo tengo bastante claro.
Respecto al ray tracing, mientras dejen la libertad al usuario de poder activarlo o desactivarlo, no es ningún drama, la putada es para el que paga una pasta por una RTX con hardware dedicado y sabe que lo va a desaprovechar, cuando no lo activa. Lo bueno de AMD es que sus Ray Accelerators, los usa para rasterización si no activas ray tracing, no desperdicias hardware. El peor escenario es que integren el ray tracing en el juego y sea una opción obligatoria.
ahora mismo NVIDIA subiendo un 24% en bolsa.

Hay que asumirlo que ya no les importa el gaming PC, estan para otras cosas (IA). Venderan graficas top a precios muy elevados (caso 4090) para quien quiera pagarlos y listo.
Quien dice eso, seguramente no tenga ninguna ni ahora ni antes, un movil o un netbook sobran. [facepalm]
Yo he actualizado de una R9 290 Tri-X del 2013 a una RX 6700XT que espero que dure otros 10 años.

No me pienso subir al tren de comprar una gráfica gama media por casi 500 putos euros solo por decir "Pero tengo RTX, heh".
VíctorXD está baneado por "clon de usuario baneado"
Lo del Path Tracing es marketing puro para darle algún sentido de uso al DLSS3 y de esta forma intentar vender RTX4000(aunque les va muy mal).

El inicio del Ray Tracing también fue otro Marketing, Nvidia lastimosamente posee el mercado y puede ir contralando la tecnologías a futuro. El Ray Tracing fue una técnica de implementación muy prematura en el sector gaming, habían técnicas previas de iluminación que era el paso lógico, por ejemplo SDFGI que usa Lumen Software y que funciona bien hasta consolas, el Voxel Cone Tracing que usa el Cryengine, el Ray Tracing fue muy prematuro y en consola incluso pasan de él y los exclusivos no se le da el bombo a eso.

Por último el Ray Tracing actual está tan recortado, que habrá muchísimo margen hasta para poner de rodillas a una futura RTX12090 TI si es lo que se quiere, así que Nvidia podrá seguir intentando vender DLSS10
Nomada_Firefox escribió:Asi que comparado con antes, al menos ahora, con graficas del 2016, una sencilla GTX 1060, pues puedes jugar a todo. Muchas cosas bastante bien. Y tampoco necesitas una super CPU. Asi que sí, creo que estamos mejor que antes pese a tener precios altos y seguramente estos precios sean porque el hardware no es tan necesario.


Coincido.
el raytracing es una tecnología más que está ahí, la tomas o la dejas, cyberpunk tiene supongo un modo menos agresivo, con eso solo han querido mostrar el poder del nuevo modelo de dlss con un raytracing que sería imposible sin dlss
más viejo qe el comer te crean la necesidad y a contar billetes... ya cada uno si es tonto o no de caer en la trampa. mi tope son 450€ en una grafica qe les follen. [poraki]
(mensaje borrado)
La cuestión es sencilla: RTX OFF

Y a jugar feliz.
mrmanson16v escribió:La cuestión es sencilla: RTX OFF

Y a jugar feliz.

Mi 3080 sin el rtx va sobradisima, estoy totalmente de acuerdo.
Creo que todo esto no va conmigo, yo uso un monitor de 1080p y juego perfectamente con el RT activo. Quizas sea que muchos escogieron jugar en una resolución que el hardware no permitia. ;)
Nomada_Firefox escribió:Creo que todo esto no va conmigo, yo uso un monitor de 1080p y juego perfectamente con el RT activo. Quizas sea que muchos escogieron jugar en una resolución que el hardware no permitia. ;)

Jugar a 4k entre 80 y 120 fps en mi tv Oled no lo cambio por todo el RT de mundo. Sinceramente tener una gráfica potente para jugar a 1080p personalmente siento que es tirar dinero. Lo sigue siendo pagar por jugar con RT.
@matimiri se nota que no has jugado casi con rt
@parh si, claro que lo he hecho, pero no me compensa sacrificar rendimiento por algo que realmente no es tanta la diferencia. Te digo, jugando en una Oled es innecesario.
@matimiri no veo claro la relación entre oled y rt y como uno puede reemplazar las bondades del otro. Pero, vamos, respeto tu opinión [sonrisa]
No es reemplazar bondades, simplemente un balance entre una buena configuración y un buen panel. Que si, el RT mola, pero sigo pensando que no es necesario, menos a 1080p en un monitor como mucho de 27" en donde apenas puedes apreciar detalles.
https://www.flickr.com/photos/198404949 ... 4YaYMf3771
Realmente para un usuario de pc, no hay mucho que pensar, en mi caso con una 6800xt, pongo un juego en ultra 4k a 60 y va perfecto, activo el rtx y cae el rendimiento un 50% o más. No hay mucho debate, quitas el rtx y tan feliz. Como dice el compañero con un buen tv bien calibrado, con colores ricos y buenos contrastes en 4k, es una delicia.
Pero como dije antes el problema será cuando nvidia apriete a base de maletines a ciertas productoras, ponle CD Project y le diga en tu próximo lanzamiento quiero el RTX obligatorio, nada de poder quitarlo.
Silicio14mm escribió:Pero como dije antes el problema será cuando nvidia apriete a base de maletines a ciertas productoras, ponle CD Project y le diga en tu próximo lanzamiento quiero el RTX obligatorio, nada de poder quitarlo.

Y supongo que las desarrolladoras van a estar dispuestas a perder ventas solo porque Nvidia lo diga
He dicho a cambio de maletines, la desarrolladora le pide x dinero a cambio de potenciar el RTX, nada es gratis.
Ya hay en el mercado muchos juegos patrocinados o por NVIDIA o por AMD y casualmente van mucho mejor en las graficas que los patrocinan.
¿Quién cojones quería RTX en Elden Ring?, porque lo han implementado tras más de un año, dejando ahora su rendimiento en una basura, así solo han ganado mala publicidad.
¿Quién cojones quería RTX en Tomb Raider Shadow? ... porque lo han implementado tras más de un año, dejando ahora su rendimiento en una basura, así solo han ganado mala publicidad.
¿Quién cojones quería RTX en Senua Sacrifice Shadow?...
¿Quién cojones quería RTX en...
Quien ha decidido que actualizar un juego a la nueva generación sea meterle la basura de RTX y cargarse su rendimiento
No estará detrás Nvidia pagando a los desarrolladores
Silicio14mm escribió:He dicho a cambio de maletines, la desarrolladora le pide x dinero a cambio de potenciar el RTX, nada es gratis.
Ya hay en el mercado muchos juegos patrocinados o por NVIDIA o por AMD y casualmente van mucho mejor en las graficas que los patrocinan.
¿Quién cojones quería RTX en Elden Ring?, porque lo han implementado tras más de un año, dejando ahora su rendimiento en una basura, así solo han ganado mala publicidad.
¿Quién cojones quería RTX en Tomb Raider Shadow? ... porque lo han implementado tras más de un año, dejando ahora su rendimiento en una basura, así solo han ganado mala publicidad.
¿Quién cojones quería RTX en Senua Sacrifice Shadow?...
¿Quién cojones quería RTX en...
Quien ha decidido que actualizar un juego a la nueva generación sea meterle la basura de RTX y cargarse su rendimiento
No estará detrás Nvidia pagando a los desarrolladores


pero que dices de "cargarse el rendimiento"? Lo desactivas y listo, ya lo tienes como siempre. Jugaran con RT ON quienes quieran disfrutar de RT y tengan la grafica acorde. Simplemente, es cuestion de eleccion,
Si y No. Si es tan fácil como no activar RTX
No, no es verdad que no afecte al producto en conjunto negativamente, afecta negativamente al juego y al consumidor, en el caso en el que tengas una grafica de gama alta y veas que no puedes con un juego de hace años con el RTX activado, pues te quedas con la sensación de que te están tomando por gilipollas. Ya se que es una chorrada, que soy el primero en decir que no hace falta activar el RTX. Pero jode que te enseñen un caramelito y te digan, no es para ti.
Y para un poseedor de una 4090 quizás tampoco, ya veremos en nuevas generaciones...
Ok, para que me lo enseñas? en resumen. Nvidia no se que estas haciendo en el mundo gaming
No tiene sentido eso que dices, nunca algo salio al mercado siendo funcional para el 100% de los usuarios, hay que estrenarla e ir puliendola con el tiempo, con esa manera de actuar que tu dices, seguiriamos en los 8 bits.....

Quieres que una manquina de 8 bits mueva un juego de PS One, pues sabes que no es posible, comprate una PS One🤣🤣

Quieres RT si o si, pues no te compres una GTX 1650 Super.....

Eso no quita de que el RT hoy dia para la diferencia visual, consume recursos como un demonio y sea hasta contraprudecente, pero eso es algo que el usuario debe tomar su decision, por eso te dejan apagarlo o encenderlo con distintos niveles de intensidad.
Pero esto al final es que depende de cada uno, si no te gusta lo que hacen, no compres y ya. La gama 2000 tenía sobreprecio injustificado, pero la gama 3000 estaba bien, quizás un poco más de lo que nos hubiera gustado pero era buen precio para lo que ofrecian. Al ver que la gama 2000 no es lo que pensaban les tocó bajar.
La gama 4000 aún tiene bastante más sobreprecio que la 2000 y tampoco está justificado, si están equivocados ya volverán a bajar con las 5000 porque las compran poca gente, si en raster las 3000 van muy bien y las 4000 solo valen la pena por RT+DLSS3. Yo compré la 4080 y he pagado más de lo que me habría gustado, pero al final también lo disfruto y se nota el cambio de la 3080 10GB a la 4080 en raster.

Y luego con el RT lo mismo, decir que no se nota no lo veo muy claro, pero si al final es una tecnología mala ya saldrán otras técnicas o tecnologías, por ejemplo UE5 con lumen y la pondrán en su lugar a nvidia y su RT. Las AMD no van mal y no están tan enfocadas al RT. Puede ser que en un futuro volvamos a gráficas sin RT.

Sin embargo la IA sí que lo veo más difícil que se pierda porque ayuda y conforme se vaya mejorando quizás al final sí se vea igual que nativo.

Hace años también teníamos gráficas cada año y también era molesto porque igual una gen salía bastante mejor que otra y te dejabas 400-500€ en una gráfica para que al año hubiera una el doble de potente o más. Ahora salen cada 2 y se compensa mejor el gasto.

Al final solo podemos adaptarlos, porque nvidia va a seguir haciendo lo que quiera y ahora que están muy enfocados a la IA les damos más igual.
Pues sí, con no comprar. Nadie te pide tampoco que compres un juego diseñado para las consolas que es más que esperable que rule mal en PC. Y todavia han mejorado algo porque en la generación de consolas anteriores habia bastantes juegos que no pasaban de 60fps. Pero tampoco te obligan a punta de pistola. Hay todavia muchos juegos que se diseñan exclusivamente para PC.

eric_14 escribió:pero la gama 3000 estaba bien

¿Me he perdido algo? la gama que no tenia sobreprecio era la 2000 pero la 3000 ha durado toda la burbuja minera, de baratas tenian poco. Siempre me acordare de aquel septiembre de 2020 donde se podia comprar una 2060 Super por alrededor de 300€ en Coolmod. Hasta ahora no volvimo a esos precios.

Si te refieres a las infladas de Nvidia con cada gama, pues desde mi punto de vista, han ido asi y todas fueron injustificadas.

Cuando habia graficas cada año era mejor, cierto que las ganancias cada generación eran menores. Normal. Pero en un año ya podias comprar la generación anterior rebajadita. Sacarlas cada dos años ha alargado eso un año. No le veo la gracia y como tu mismo has dicho, nadie obligaba a comprar. Pero bueno, eran otros tiempos.

Respecto al enfoque hacia el RT, yo no tengo nada contra el RT. Pero tanto en Nvidia como en AMD, sino usas alguna tecnica de escalado para ganar rendimiento, el rendimiento es una mierda en muchos juegos. Lo cual viene a decir que Nvidia ha engañado a muchisima gente vendiendo un hardware que era mejor para el RT cuando no lo era.

Por sino lo hemos entendido, el RT de Nvidia es tan malo como el de AMD sin no usas el DLSS. Y lo bueno de Nvidia es el DLSS pero no el hardware.
A Nvidia el mercado de consumo se la suda ya

Va camino de igualar a Amazon como empresa...
Yo hablo sobre el precio oficial de nvidia, no lo que hacían las tiendas. Las 2000 las subieron de precio respecto a las 1000 sin motivo, te vendían el RT y DLSS y al final casi que no podías activar ni una cosa ni otra, el RT te comía todo el rendimiento y el DLSS lo hacía todo borroso. Para mí con las 2000 ni tenía que haber salido el RT, como mucho el DLSS pero cuando ya estaba el DLSS 2.0 que no lo hacía tan borroso. Con las 3000 bajaron algo el precio y las pude comprar al precio oficial.

Cuando había gráficas cada año también se quejaba la gente, o por lo menos algunos, recuerdo que se pedía más optimización en los juegos y que aprovecharan más el hardware, pero los desarrolladores pasaban y si querías jugar mejor te esperabas a la siguiente gen.
También es verdad que no lo he vivido en primera persona, es por lo que leía por los foros, en esa época no tenía pasta y compraba lo justo y mejor calidad/precio. Si algo no iba bien, me jodía [carcajad] .

Y sí, el RT no vale nada sin la IA porque no se puede activar. Y el path tracing sin DLSS3 tampoco vale nada.
Nomada_Firefox escribió:

Por sino lo hemos entendido, el RT de Nvidia es tan malo como el de AMD sin no usas el DLSS. Y lo bueno de Nvidia es el DLSS pero no el hardware.


Y te quedas tan ancho después de soltar esto. [facepalm]
@eric_14 Que más da el precio oficial si todos compramos en la tienda, el precio que importa es el del cliente final. Nvidia ha subido exponencialmente el precio en todas sus ultimas series. Empezo con las 1000 y ahora estamos en las 4000, más caras que nunca.

Es cierto, las 2000 nunca tenian que haber tenido RT.

Pero da igual, Nvidia lleva 6 años vendiendo las RTX como las mejores haciendo RT y es cierto, su RT es mejor, pero no son la panacea, más bien el engaño padre porque sin DLSS, el RT es inviable a dia de hoy en el 99,9% de los juegos. Yo solo conozco un juego que use RT y no perjudique apenas el rendimiento, el Far Cry 6, ironicamente es un juego pro amd. Todos los demas pones RT sin usar una mejora de rendimiento por escalado del tipo que sea y el rendimiento cae a niveles injugables.

Y a altas resoluciones ni el DLSS salva el hardware usando RT.
Silicio14mm escribió:No puedo entender como te esfuerzas tanto en humillar y arrastrar por el suelo el hardware, más concretamente las Tarjetas Graficas, de la competencia y las tuyas propias. No se que ganas al convertir cyberpunk 2077 en una demo técnica, que demuestra lo ridículo, la tomadura de pelo y lo cutre que ha sido el ray tracing, así que para dejarlo bien claro, sacas una configuración de ray tracing mas agresiva, para que tus clientes vean que el camino que sigues es un pozo sin fondo, un agujero negro del rendimiento, dejando de rodillas a la 4090 que no puede a 4k nativos 60 a duras penas, una grafica de 2000 euros, en serio ¿ese es el camino?.
Cada vez tengo mas claro que el ray tracing no va a ser la técnica de iluminación a seguir a futuro.

Donde deja Nvidia a los poseedores de las 3080, 3080 ti, 3090 etc, contentos de saber que el ray tracing que tienen es el cutre y que el bueno el de ahora lo mueven a 30 1080p. Tanta serie 3000 para tener el ray tracing en off.


Eso pasó con physx, pero a diferencia de ésta tecnología, Ray tracing no es un invento de nvidia (Sí los tensor cores y los RT cores, y ahora hablaré de ellos), ray tracing es un método de iluminación usada, desde hace muchísimo, en los motores de render (Que no de videojuegos) para renderizar imágenes, es un cálculo de iluminación que consume muchos recursos y es muy costoso, ahora porque es posible renderizar con GPU y, donde la GPU tarda solo 30 segundos, la CPU puede tardar 8 horas en sacar un fotograma. Los RT cores han hecho mas viables este proceso de renderizar imágenes complejas en motores de render como puede ser Arnold.

Ahora bien, solo llevan tres generaciones de gráficas, y al igual que pasó con los cuda cores, Si no recuerdo mal, la primera generación de gráficas que empezó a usar los CUDA cores fueron la serie GTX 480, las cuales, en ese momento, su objetivo principal era mover physx, un sistema en desuso (ya que era propiedad de nvidia, al contrario que ray tracing, la cual no es invención de nvidia, una pena la verdad, ya que estaban muy chulos los efectos) capaz de crear físicas "realistas", La gtx 480 tenía 512 CUDA Cores, con éstos, no podias ni mover a buenos fps la tecnología a causa de la poca cantidad de cuda cores que tenía la gráfica, a pesar de ser el tope de gamas (era una tecnología que también consumía muchísimo).

Actualmente, una rtx 4080 (Por poner un modelo "equivalente" generacionalmente hablando) tiene 16.384 cuda cores.. y con eso mueves physx si existiera sin despeinarse (Estos CUDA cores se utilizan en la actualidad para las físicas de los juegos, aunque no sean physx y ni siquiera hay una opción para mejorar o empeorar o desactivar esas físicas ya que es una barrera que se ha solventado de largo)

Lo que quiero decir con esto, es que contra más pasen las generaciones, más RT cores meterá nvidia a sus gráficas (Los RT cores se usan para renderizar el ray tracing, no confundir con los Tensor cores), y mas facil será mover el ray tracing, y mayor cantidad de rayos y rebotes meterán en los juegos del futuro, hasta llegar un punto que incluso quiten la opción de configuración del trazado de rayos, ya que ese problema quedará totalmente solventado, y, como dije, los RT cores si están patentados por nvidia, el ray tracing no, por lo que es una tecnología que la puede usar cualquiera, siempre y cuando la marca tenga el hardware para moverla.

Actualmente el ray tracing en los videojuegos es ineficiente mal rendimiento, poca cantidad de rayos y rebotes, baja densidad de rayos y partículas extremadamente grandes creando incluso efectos malos, donde se ven como unas bolas difuminadas que aparecen y desaparecen en las zonas donde da la luz, pero esto, con el tiempo, se irá perfeccionando y mejorando hasta tal punto que toda la iluminación de un escenario será por medio del ray tracing.

Los RT cores que usa la 2080 no son los mismos que usan la 4080, los de la 4080 son de 3a generación (4a gen los Tensor cores) y su arquitectura es distinta.

Lo dicho, nvidia suele hacer eso, las primeras gráficas con una tecnología nueva no suelen ser viables para mover de forma fluida los procesos a los que está dedicado dicha tecnología, pero que con el paso de las generaciones van perfeccionando la tecnología.

Si tu único objetivo es mover bien el ray tracing en los juegos, y que por únicamente ese motivo te compras una nvidia, lo que te puedo decir es que te esperes a un par de generaciones (Si no más) más para que eso sea posible.

Yo soy modelador 3D, y sinceramente, mi trabajo prácticamente me obliga a comprar nvidia. Pero si usara solo el PC para jugar, yo no tendría como prioridad actualmente activar el ray tracing en los juegos, de hecho, yo no lo activo, prefiero ganar 30 fps más a activar el ray tracing tal y como está la tecnología actualmente (El hogwart legacy, por ejemplo, se ve mejor sin ray tracing que con él, y encima, va al doble de fps)

Así que nada.. Hay que esperar más para que le saquen todo el jugo a esto. Y no tengo dudas de que será el futuro de los videojuegos, ya que cada vez es mas fotorealista, y para que las iluminaciones y las sombras sean fotorealistas, se necesita el ray tracing, ya que literalmente funciona como funciona la luz real.

EDIT: Me he equivocado nombrando los RT cores con los tensor cores (He corregido el mensaje anterior, espero no tener erratas), los nucleos que procesan el ray tracing son los RT cores, y los tensor cores para el DLSS y demás. La rtx 2080 tiene 46 RT cores, y la 4080 tiene 76 RT cores, y la 4090 128 RT cores, y en un futuro, este número irá aumentando para ser mas eficientes a la hora de renderizar el ray tracing. También estos RT cores han ido aumentando de generación, siendo los de la serie 4000 de 3a generación, y los de la serie 3000 de 2a generación.
Así por encima, el problema es que nos hemos creído que podíamos tener en nuestra casa una máquina capaz de generar unos gráficos, a la altura de una película hasta las trancas de efectos añadidos en postproducción.

No, ni a nivel de hardware ni de software, ya te puedes gastar en un PC lo que cuesta un coche nuevo, que ni de coña vas a alcanzar a dia de hoy el nivel de detalle y tasa de fotogramas que te quieren vender.

Nos podemos poner a discutir si es culpa de los rojos, de los verdes, de los azules, de los desarrolladores de software (o de los tres), pero tal como progresa ésto, yo le echaría un lustro, minuto arriba o abajo... salvo que se inventen alguna chorrada con la que nos hagan creer que no podemos vivir.
Ñomo escribió:Así por encima, el problema es que nos hemos creído que podíamos tener en nuestra casa una máquina capaz de generar unos gráficos, a la altura de una película hasta las trancas de efectos añadidos en postproducción.

No, ni a nivel de hardware ni de software, ya te puedes gastar en un PC lo que cuesta un coche nuevo, que ni de coña vas a alcanzar a dia de hoy el nivel de detalle y tasa de fotogramas que te quieren vender.

Nos podemos poner a discutir si es culpa de los rojos, de los verdes, de los azules, de los desarrolladores de software (o de los tres), pero tal como progresa ésto, yo le echaría un lustro, minuto arriba o abajo... salvo que se inventen alguna chorrada con la que nos hagan creer que no podemos vivir.

Para una imagen muy fotorrealista como puede ser esto (Con unas físicas acordes a la calidad del modelo y al entorno y demás), pueden pasar 10 años, y más.. Las físicas del agua que sean realistas al nivel de que no sabrias distinguir si es real o no, actualmente, que yo sepa, no es posible ni con tiempos de renders largos:

https://www.artstation.com/artwork/KORaEX
https://www.artstation.com/artwork/xJqDDE
https://www.artstation.com/artwork/9Nq48q

Por ponerte unos ejemplos de Marco Di Lucca, que el tio es un crack.
@Kanijo1 ¿Que programa 3D no funciona con una grafica AMD?
@Nomada_Firefox importa el precio oficial porque la 3080 la compré a ese [carcajad] . En la única tienda que se podía. Es un poco por lo que comenta el creador del hilo, en ese momento no quería pasar por el aro y no lo hice, con paciencia y esperando la oportunidad pero al final se podía conseguir. Con la 4080 también esperé a algún precio no tan caro.
Nomada_Firefox escribió:@Kanijo1 ¿Que programa 3D no funciona con una grafica AMD?

De hecho, a no ser que haya cambiado, no se puede renderizar por GPU con una gráfica de AMD en Maya usando Arnold. Por otro lado, aunque a dia de hoy se pueda, no podrás usar nvidia optix (que esto es la locura lo que aumenta en rendimiento usando los tensor cores y los RT cores), además de eso, Arnold (Por ejemplo) usa los cuda cores para renderizar, haciendo MUCHISIMO mas rápidas las GPUs nvidia para renderizar en Maya, pero ya te digo, a no ser que de aquí a hace dos años haya cambiado la cosa (Que lo dudo) no puedes renderizar por GPU con una gráfica AMD.

Por otro lado, hay muchos softwares que utilizan los cuda cores para renderizar, como puede ser After effects, premiere, substance, y la mayoría de motores de render por GPU, también motores de renders a tiempo real, como puede ser unreal engine o marmoset.
Kanijo1 escribió:
Nomada_Firefox escribió:@Kanijo1 ¿Que programa 3D no funciona con una grafica AMD?

De hecho, a no ser que haya cambiado, no se puede renderizar por GPU con una gráfica de AMD en Maya usando Arnold. Por otro lado, aunque a dia de hoy se pueda, no podrás usar nvidia optix (que esto es la locura lo que aumenta en rendimiento usando los tensor cores y los RT cores), además de eso, Arnold (Por ejemplo) usa los cuda cores para renderizar, haciendo MUCHISIMO mas rápidas las GPUs nvidia para renderizar en Maya, pero ya te digo, a no ser que de aquí a hace dos años haya cambiado la cosa (Que lo dudo) no puedes renderizar por GPU con una gráfica AMD.

Si es cierto que si usas programas que usan cuda, o Nvidia o nada, la unica excepción es guardando texturas en DDS. Yo como no hago renders, solo modelos en 3D a secas para usar en juegos, pues no me he visto con ese tipo de problemas. Aunque si me informe bastante previamente de cara a lo que hago.

Cosa a parte tengo un PC con una Nvidia y este con la AMD.
61 respuestas
1, 2