@parh Estoy de acuerdo con lo que dices y a la vez no me gusta la situación en la que está esto.
Sobre todo no quiero que pienses que te llevo la contraria con lo que voy a decir, que a fin de cuentas es un poco repetir lo que he dicho en días pasados.
Partiendo de la base de que es así todo lo que has puesto, o sea que es completamente cierto y es lo que está pasando, yo quiero añadir que de todas formas la presentación de todo esto ha sido desafortunada porque no ha sido lo suficientemente honesta.
El que la ley de moore ya no exista es un paradigma muy sombrío para la industria en general, ya que nunca ha sabido equilibrar bien los avances tremendos que ha habido en la parte del hardware por la parte del software. Ya sea por cumplir plazos o por vagancia de las personas o la causa que sea, desde que aparecieron los microcomputadores a finales de los 70 del siglo XX, la sensación de que se podrían aprovechar mejor los circuitos de lo que se consigue siempre ha sido una constante.
Por ejemplo, para esto más concretamente siempre andamos lamentándonos de lo mal optimizados que están los juegos desde que el Dlss dejó de verse como una patata. Y todo esto mientras tanto el hardware está entrando en una fase de estancamiento que puede que termine siendo definitiva.
La solución al atolladero parece que va a ser la ia y aunque a mi personalmente no me guste ese arreglo por otras razones, usar la parte del software (porque la ia tiene más de software que de hardware) para seguir yendo en plan triunfal por el mundo, no es honesto ya que esta empresa si tiene tanto poderío en la industria, se debe más bien por vender hardware que por el software que producen. Esto último es algo que nunca deberíamos perder de vista en lugar de entrar siempre a fliparnos con el espectáculo de humo y espejos en que se está convirtiendo todo esto. Y tras el humo y espejos hacer cola una vez más para dejar una cantidad importante de dinero en la cuenta del mago chino.
Quizás todavía no pueda llamarse refrito a.los chips nuevos comparados con los anteriores, pero como dentro de dos años vuelvan a usar la misma litografía, esa palabra se va a leer mucho por aquí.
Una cosa que ayer oí un par de veces en las reviews de la 5090 es que ahora sí esta serie está preparada para el nuevo paradigma ese del neural rendering. Yo estoy en desacuerdo con eso porque considero que desde las turing hay hardware adaptado para el tipo de cálculos que necesita esa manera novedosa de representar gráficos, y si una 2060 no tiene suficiente memoria como para llegar siquiera a 1080p, al menos que pueda verse en una resolución inferior, pero al menos hacer el esfuerzo por habilitarlo o si ni así, por lo menos abrir el código para que gente de todo el mundo pueda tener la posibilidad de investigarlo. Ganarían algo menos de dinero pero también se podrían aprovechar de lo que desarrollara esa comunidad.
Pero es que el día que se implante plenamente el neural rendering, si es que así terminan llamando a que la tarjeta imagine completamente todos los cuadros del juego, aplicación o lo que esté representando en la pantalla, estoy seguro que gracias a su manera de hacer las cosas una 5090 no podrá hacerlo aunque tenga hardware de sobra para conseguirlo. Las reviews de ayer a mi me confirmaron además que la 4090 también lo tiene, de hecho.