ortegasoy escribió:Estoy viendo el video de Toro Tocho y dado el tamaño de esa 4090 he pensado que va a ser cierto lo de que la ley de Moore ha muerto. Antes en cada generación a igual tamaño y consumo aumentaba el rendimiento. Ahora para aumentar rendimiento tiene que hacerlo también el tamaño y el consumo eléctrico. ¿Que será lo siguiente? ¿Necesitaremos una acometida trifásica y tirar un tabique?
Nomada_Firefox escribió:Eficiente desde el punto de vista consumo/rendimiento, lo es. Pero el consumo ha entrado en un punto que ya no es agradable a la vista. Esa es la cuestión.
katatsumuri escribió:yo es que creo que la 4090 y la 4080 no deberían de verse como tarjetas para videojuegos, lo siento
d2akl escribió:katatsumuri escribió:yo es que creo que la 4090 y la 4080 no deberían de verse como tarjetas para videojuegos, lo siento
Y entonces? Que quieres jugar a 4k 60fps con una 3070 o como va la cosa?? Yo por preferir, prefería con una 1060, pero...
katatsumuri escribió:d2akl escribió:katatsumuri escribió:yo es que creo que la 4090 y la 4080 no deberían de verse como tarjetas para videojuegos, lo siento
Y entonces? Que quieres jugar a 4k 60fps con una 3070 o como va la cosa?? Yo por preferir, prefería con una 1060, pero...
Pues estoy jugando a 4K 60fps con una 3070ti a juegos como RDR2, en ultra.
katatsumuri escribió:@d2akl si, lo he mirado, no entiendo porque me baja la configuración de algunas cosas en alto, en ultra me llega a 50-52fps por norma, aunque por dos efectos en alto no me muero
d2akl escribió:katatsumuri escribió:@d2akl si, lo he mirado, no entiendo porque me baja la configuración de algunas cosas en alto, en ultra me llega a 50-52fps por norma, aunque por dos efectos en alto no me muero
Viste 😎😎 pues ya no es ultra xdxd.
Ahora hablando en serio, también puedo pensar como tu con lo de la 4090 esta overkill para 4k60fps, a día de hoy, pero...yo me voy pillar una xD.
Las 4080 me parecen una estafa de lo malas que van ser, sobre todo la de 12gb
Pollonidas escribió:ortegasoy escribió:Estoy viendo el video de Toro Tocho y dado el tamaño de esa 4090 he pensado que va a ser cierto lo de que la ley de Moore ha muerto. Antes en cada generación a igual tamaño y consumo aumentaba el rendimiento. Ahora para aumentar rendimiento tiene que hacerlo también el tamaño y el consumo eléctrico. ¿Que será lo siguiente? ¿Necesitaremos una acometida trifásica y tirar un tabique?
Yo creo que hay un montón de gente que tiene un montón de ideas preconcebidas y erróneas sobre el consumo y sobre la 4090.
Porque realmene la EFICIENCIA ha aumentado como en pocas generaciones se ha visto. Y más aún hubiera aumentado con un power target de 300W en lugar de 450W, cosa que inexplicablemente nvidia ha elegido no hacer.
Ver por ejemplo la tabla de eficiencia de techpowerup (básicamente son FPS/watio):
Y al respecto de lo segundo, un vídeo muy interesante de der8auer, en inglés (básicamente dice que bajando el power limit a un 70%, se baja el consumo un 33%, pero el rendimiento solo un 8%, por lo que ese power target tiene mucho más sentido para una GPU comercial orientada a juegos, y el que quiera hacer overclock y tirar por la borda la eficiencia, que lo haga):
Los disipadores están MUY sobredimensionados simple y llanamente porque nvidia no tenía la certeza, en fases tempranas del diseño, de poder acceder a los procesos de fabricación más modernos en el volumen suficiente para estas GPUs, y en caso de haber tirado por los 8nm de Samsung estos disipadores hubieran sido absolutamente necesarios (también hubiera habido salto en eficiencia, pero el consumo total habría estado por las nubes). Por suerte sí que ha podido tirar por N4 (que realmente son 5nm si no me equivoco) de TSMC y no es necesario para nada tanto disipador, pero es muy ventajoso para mantener las temperaturas del chip y la RAM bajas con un ruido muy bajo.
Mi única queja con esta GPU es el precio (tengo más quejas con los dos modelos de 4080, que deberían llamarse 4070 y 4060Ti respectivamente si realmente tuvieran un poco de respeto por el consumidor, y deberían tener también un precio bastante más bajo). Pero justamente es la prueba de que la ley de moore sigue muy viva y que la efiencia está subiendo drásticamente. La gente que dice lo contrario se está basando en prejuicios y no en los números que se ven en todas las reviews, porque una 4090 con el power limit de una 3080 rinde bastante más que una 3090Ti, si eso no es salto en eficiencia, vosotros diréis.
El consumo en idle es un poco alto, eso sí. Como 5-7W más que sus equivalentes de la pasada generación. Me hubiera gustado ver eso un poco más cuidado. Pero es un chip enorme, por mucho que bajes las frecuencias, es complicado conseguir consumos realmente bajos. Y la GDDR6X no ayuda.
Saludos
nirvana17 escribió:la 4090 la veo mas enfocada a temas profesionales o a otros usos, pero las 3080 son un desmadre estos nos han calcado la subida del ipc 2022 y de los proximos para ahorrar tiempo . a ver que hace amd , si no repite la jugada
Nomada_Firefox escribió:nirvana17 escribió:la 4090 la veo mas enfocada a temas profesionales o a otros usos, pero las 3080 son un desmadre estos nos han calcado la subida del ipc 2022 y de los proximos para ahorrar tiempo . a ver que hace amd , si no repite la jugada
¿Que tema profesional? si fuera para trabajar, pues tienes graficas de Nvidia o AMD especificas que hacen ese tipo de curro bastante mejor.
Pollonidas escribió:Nomada_Firefox escribió:Eficiente desde el punto de vista consumo/rendimiento, lo es. Pero el consumo ha entrado en un punto que ya no es agradable a la vista. Esa es la cuestión.
Tan sencillo como bajar el power target a 300W como propone der8auer en el vídeo que enlazo en el post anterior. O digo más, bajarlo a 225W.
Una 4090 limitada a 225W (50% power target, donde más eficiente es la GPU) rinde más que una 3090Ti, y consume menos que una 3070. Si realmente alguien está preocupado por la eficiencia (no por la factura de la luz, sino por convicción, principios, o llámalo como quieras), esta es la gráfica a comprar ahora mismo, para limitar el TDP después claro.
Claro, no tiene mucho sentido comprar un superdeportivo para ir a 80km/h por autovía para gastar lo mínimo posible, y no acercarse nunca a un circuito. Las medias de consumo serán espectaculares, pero probablemente sea desaprovechar la inversión.
Saludos
katatsumuri escribió:yo es que creo que la 4090 y la 4080 no deberían de verse como tarjetas para videojuegos, lo siento
Yo estoy con una 3070ti y hoy estaba jugando en 4K ultra 60fps a RDR2, MGS V, etc... No quiero ni imaginar con una 3080ti que ya si sería como el tope de gama. [....]
Duncan Idaho escribió:Que yo sepa no consume menos que una 3070 porque la 3070 gasta 220 watios, no 225, y no sostenidos.
Duncan Idaho escribió:Sobre lo de perder un 8% de rendimiento por bajar el PL un 30% en cuanto a eficiencia es, en efecto, una jugada maestra, pero en cuanto a valor es un desastre: no creo que ese 8% sea mucho mayor que la ganancia de rendimiento sobre una 4080 de 16 gigas. Dicho de otra manera, te gastas la guita en ESA tarjeta para disfrutar precisamente de ESE 8% extra.