[HO] NVIDIA GeForce RTX 5000

pinturito escribió:
XTC908 escribió:En los foros de chiphell han puesto una estimación de rendimiento incluida la RX 9070

Imagen


puedes poner el enlace please?


Marchando una de bravaaaas...digooo el enlace

https://www.chiphell.com/thread-2664796-1-1.html
XTC908 escribió:
pinturito escribió:
XTC908 escribió:En los foros de chiphell han puesto una estimación de rendimiento incluida la RX 9070

Imagen


puedes poner el enlace please?


Marchando una de bravaaaas...digooo el enlace

https://www.chiphell.com/thread-2664796-1-1.html


Muchas gracias apañao [beer] [beer]
pinturito escribió:
Rvilla87 escribió:
Lorena99 escribió:
Simplemente no. Da igual el conector en U, mirate los primeros 20 segundos de este video.



Lo que dices es lo que dijeron los de gamer nexus pagados por Nvidia para intentar hacer control de daños, ya se sabe que no tiene nada que ver la "mala praxis" del usuario cuando nadie ha podido replicar el error conectandolo de manera incompleta. Es un error que se produce con el tiempo, algunas se fundiran en 3 meses, otras en 3 años, pero todas se van a terminar fundiendo exactamente por lo que dices de la seccion y de que pase demasiada intensidad por los pines del cable, que son bastante mas delgados para ahorrar costes que los que habia en los de 8 pines de toda la vida.

Pensaba que el debate de las 4090 que se quemaban ya había terminado. Una cosa es que la solución no sea la mejor posible y pueda haber un mínimo de riesgo y otra muy diferente venderlo como algo de tan algo riesgo como lo estás haciendo (y menudo video con esa miniatura que pusiste).

Si quieres creerte esos clickbaits con esas miniaturas de mierda que engañan a los mas ignorantes estás en tu derecho, pero no desinformes a los foreros. Si la 4090 se quemara como dices aquí habría varios usuarios afectados y se habría visto varios casos en este foro. Sigo el tema desde hace años y diría que no me suena ni 1 solo reportado por un usuario de EOL... y me puedo equivocar y quizás hay alguno, pero desde luego no ha sido algo habitual ni común para nada. Lo que sí ha salido varias veces es el típico reddit de un usuario de alrededor del mundo que, o tuvo mala suerte con un producto defectuoso o simplemente conectó mal los cables.

¿Te suenan las mierdas de noticias de 3djuegos donde sacan de vez en cuando una noticia de mierda de algún reddit de algún usuario haciendo alguna gilipollez absurda en el mundo del PC para tener visitas? Del estilo: "se gastó todos sus ahorros para jugar a tope y le llegó un pc de hace 10 años", "un jugador quiso tener la mejor gráfica y consiguió romper su pc"... pues te pareces a los de la redacción de 3djuegos [+risas]

Que hay que ver la de veces que me ha llamado la atención tus posts que parecen escritos por un troll de un clon baneado (y he leído mas comentarios de otros usuarios quejándose de lo mismo). Te suena un reciente caso de un usuario baneado? Por si quieres ir atando cabos.


que huele a clon de usuario baneado, ni cotiza....ya se lo advertid hace unos dias, y me juego el sueldo que ni es mujer....mas de la manera tan agresiva que tiene de contestar... no se Rick....


654321 escribió:20% mas de nucleos, 0% mas de VRAM, 7% mas de ancho de banda, 0.3% menos de reloj ...


la 5080 tiene mas velocidad de reloj que la 5070ti....


Lo podría pensar pero en un par de ocasiones se enzarzó con el bufón y eso me hace pensar que simplemente es troll, trollena99 la llamaremos ahora
pakolo1977 escribió:@manlore2 Gracias por el enlace, me lo he leído en plan rápido y malamente, intentaré hoy leerlo con algo más de atención. De tods formas esto es un adelanto aproximado a lo que se verá a finales de mes, probablemente el día anterior a la salida, para ese entonces sí que habrá bastantes más datos y será todo mucho más fiable que ahora.

A mi la sensación que me da es la misma a la que llevo varios días teniendo, que aun habiendo mejora en la relación precio/rendimiento entre la 5090 y 4090, en la práctica está cerca de ser lineal. Claro está, si quitamos el multiframe de toda esta valoración, porque al incluirlo entonces sí se nota una mejora sustancial por la parte de la 5090.

Para que se entienda lo que he puesto antes, un ejemplo malo: Mi 4090 me costó 2100 euros de salida, si la relación que he dicho antes fuera lineal, una 5090 que rinde un 25% más valdría un 25% más, que sería 2625 euros a pagar a principios de febrero.

Está claro que eso no va a ser así porque 2600 euros va a ser mucha pasta por una 5090 (aunque está por ver que harán las tiendas en españa, supongo que dependerá de la demanda que haya y si vienen bastantes gráficas para cubrirla). Tampoco recuerdo por cuanto se estaban vendiendo las 3090ti cuando salieron, pero sí que había una mejora clara en esto cuando salieron las 4090, sobre todo porque nvidia a cosa hecha tiró el precio de las 3090ti durante unas semanas a finales de 2022. Esto último no lo están haciendo ahora.

Sea como sea, estoy dándole vueltas a lo mismo de siempre, que esta vez en lo que se refiere a gaming, el reclamo de ahora es software, es el multiframe sobre todo. En la 5090 espero eso sí, que la ganancia en lo que se refiere a programas de edición de vídeo, diseño, modelado en 3d, etc. sí sea sustancial, porque así sí estaría justificado gastar tanto por una gráfica.

Hace 2 años la justificación con la 4090 era que parecía un diamante rodeado de bisutería, a precio de diamante.


Que pagaras sobrecoste no significa que tengas que sumarle ese 26% al precio que TU pagaste. La PNY 4090 ha estado a 1567€, y el precio de salida de la founder no llegaba a 1800€.
pinturito escribió:la 5080 tiene mas velocidad de reloj que la 5070ti....

Tiene mas boost, pero el rejoj de base es mas bajo.
Sabéis si Amazon España las pone también el 30 en lanzamiento suele hacerlo las de Asus MSI y así ???
654321 escribió:
metallah escribió:EDIT:De todas formas, la 5080 tiene un 20% más de todo que la 5070Ti, y el precio de la 5080nes aprox un 30% mayor.

20% mas de nucleos, 0% mas de VRAM, 7% mas de ancho de banda, 0.3% menos de reloj ...

Me da que en los benchmarks va a decepcionar bastante esa 4080, que esos nucleos CUDA no los va a aprovechar muy bien, sobretodo a 4K.

Se te está olvidando la diferencia de capacidad de procesamiento IA, algo importante teniendo en cuenta que las nuevas tecnologías de NVIDIA se basan en eso, la 5080 es un 28% superior a la 5070Ti en ese aspecto también.

No sé por qué algunos os empeñáis en hacer ver que no hay diferencias entre una y la otra cuando si las hay.

Núcleos CUDA: 10752 vs 8960 (+20%)
Núcleos IA: 1801 vs 1406 (+28%)
Núcleos RT: 171 vs 133 (28.57%)
Frecuencia de reloj acelerada: 2.62 Ghz vs 2.42 Ghz (+8.26%)
Ancho de banda: 960 GB/sec vs 896 GB/sec (+7.14%)

No sé qué validez tendrá la tabla que ha hecho ChipHell, pero si la damos por buena:

- En 4K la 5080 rinde un 28.7% más que la 5070Ti
- En 1440P la 5080 rinde un 26.9% más que la 5070Ti

Ahí estamos hablando solo de rasterización, habría que ver cómo queda la cosa cuando entre en juego el DLSS 4 haciendo uso de la IA donde la 5080 también es superior a la 5070Ti .

654321 escribió:
pinturito escribió:la 5080 tiene mas velocidad de reloj que la 5070ti....

Tiene mas boost, pero el rejoj de base es mas bajo.

El reloj base es el mismo 2,30 Ghz para las dos.
Imagen
dunkam82 escribió:
654321 escribió:
metallah escribió:EDIT:De todas formas, la 5080 tiene un 20% más de todo que la 5070Ti, y el precio de la 5080nes aprox un 30% mayor.

20% mas de nucleos, 0% mas de VRAM, 7% mas de ancho de banda, 0.3% menos de reloj ...

Me da que en los benchmarks va a decepcionar bastante esa 4080, que esos nucleos CUDA no los va a aprovechar muy bien, sobretodo a 4K.

Se te está olvidando la diferencia de capacidad de procesamiento IA, algo importante teniendo en cuenta que las nuevas tecnologías de NVIDIA se basan en eso, la 5080 es un 28% superior a la 5070Ti en ese aspecto también.

No sé por qué algunos os empeñáis en hacer ver que no hay diferencias entre una y la otra cuando si las hay.

Núcleos CUDA: 10752 vs 8960 (+20%)
Núcleos IA: 1801 vs 1406 (+28%)
Núcleos RT: 171 vs 133 (28.57%)
Frecuencia de reloj acelerada: 2.62 Ghz vs 2.42 Ghz (+8.26%)
Ancho de banda: 960 GB/sec vs 896 GB/sec (+7.14%)

No sé qué validez tendrá la tabla que ha hecho ChipHell, pero si la damos por buena:

- En 4K la 5080 rinde un 28.7% más que la 5070Ti
- En 1440P la 5080 rinde un 26.9% más que la 5070Ti

Ahí estamos hablando solo de rasterización, habría que ver cómo queda la cosa cuando entre en juego el DLSS 4 haciendo uso de la IA donde la 5080 también es superior a la 5070Ti .

654321 escribió:
pinturito escribió:la 5080 tiene mas velocidad de reloj que la 5070ti....

Tiene mas boost, pero el rejoj de base es mas bajo.

El reloj base es el mismo 2,30 Ghz para las dos.


Y el Raytracing donde tiene un 29% mas de nucleos RT.... [fiu]

Por cierto le iba a responder lo mismo de la frecuencia base pero ya me has hecho tu el trabajo sucio, Thanks ;)
A lo mejor lo que busca es a alguien que pique y quiera vender su 4090 tirada de precio, porque total, van a cascar más tarde o más temprano.

A mi con que me dure la mía los 6 años que pienso usarla tengo de sobra, si después muere pues ya lloraré por ella si eso.

Mientras tanto yo no discuto que por los pines del 12vhpwr pasa una intensidad de corriente demasiado alta. Solamente decir que eso pasará si en ese conector le pones algo que consuma muchos watios, pero si no consume tanto entonces la intensidad no es tan alta y de hecho hay relación directa.

Potencia eléctrica es igual a Intensidad por voltaje.

Más concretamente en mi 4090 que no sobrepasa los 450 Watios por diseño y el conector tiene un voltaje continuo de 12V, entonces la intensidad en los momentos que consume más es de 37,50 amperios. Pero es que así no está todo el rato, ni mucho menos.

Además al haberla tenido con el afterburner con el power limit al 80% casi todo el tiempo (a veces se lo quito para por ejemplo pasar un benchmark, en linux también se puede regular esto además), lo más que consume son 360W con 30 amperios.

Si la especificación original establecía que eso podría como máximo aguantar 50 amperios, o sea 600W/12V, los 30 amperios que pasan cuando le estoy metiendo caña jugando seguro que lo aguantan los pines del conector.

Llegará el día que deje el power limit al 100%, espero que sea dentro de varios años por un lado y por otro si cuando eso se lo haga al tiempo casca, para ese entonces seguro que una 5070 estará barata como para poder consolarme con eso si no hay más dinero para apuntar a algo más alto. XD

Ahora que caigo hablando de todo esto. ¿Es seguro que la revisión del conector aguantará los 600W? Porque lo que sí es seguro ahora mismo es que no hay una 5090 estropeada por eso, porque no hay ninguna 5090 en la calle.

Ya veremos.
pinturito escribió:Y el Raytracing donde tiene un 29% mas de nucleos RT.... [fiu]

Se me había pasado, pero si juegos que hagan uso de DLSS 4 y Ray Tracing la diferencia debe de ser notoria, tampoco creo que nadie en su sano juicio espere una super diferencia del 200%.

Estos días me he estado viendo varios videos de comparativas de juegos entre la 4080 y la 4090 y tomando como referencia de rendimiento el promedio de FPS al final la cosa según el juego estaba entre un 25% y un 31%, aunque en la mayoría era sobre un 27-28% y fíjate la diferencia de precio que había entre una y la otra, con que la 5080 de un 20-25% más de rendimiento que la 5070Ti a mi me vale.
@Lorena99
Yo solo me fio de Nate Gentile.

@XTC908
Las filtraciones de Chiphell solo son fiables cuando dicen que Nvidia son la polla.
dunkam82 escribió:No sé por qué algunos os empeñáis en hacer ver que no hay diferencias entre una y la otra cuando si las hay.

Para nada, lo que decimos es que el precio aumenta mas que las mejoras de rendimiento.
Obviamente es mejor la 5080, pero lo bastante mejor como para ser un 33% mas cara ?

dunkam82 escribió:Núcleos IA: 1801 vs 1406 (+28%)

No, 336 vs 280, +28%

dunkam82 escribió:Núcleos RT: 171 vs 133 (28.57%)

No, 84 vs 70, +20%.

No tiene sentido que los nucleos de IA aumenten mas que los demas, las Compute Units de Blackwell lo normal es que sean siempre iguales, y que en unos chips pongan mas CUs que en otros, no andar diseñando CUs para cada chip, demasiado coste de I+D

Las cifras que das tu son TOPS y TFLOPS, que parecen mas humo de NVIDIA que otra cosa, como lo de que la 5070 rinde como la 4090.

dunkam82 escribió:El reloj base es el mismo 2,30 Ghz para las dos.

Eso es redondeado, ya puse que era solo 0.3% menor en la 5080, 2295Mhz vs 2300Mhz
dios que tocha vista asi en la mano
654321 escribió:
dunkam82 escribió:No sé por qué algunos os empeñáis en hacer ver que no hay diferencias entre una y la otra cuando si las hay.

Para nada, lo que decimos es que el precio aumenta mas que las mejoras de rendimiento.
Obviamente es mejor la 5080, pero lo bastante mejor como para ser un 33% mas cara ?

dunkam82 escribió:Núcleos IA: 1801 vs 1406 (+28%)

No, 336 vs 280, +28%

dunkam82 escribió:Núcleos RT: 171 vs 133 (28.57%)

No, 84 vs 70, +20%.

No tiene sentido que los nucleos de IA aumenten mas que los demas, las Compute Units de Blackwell lo normal es que sean siempre iguales, y que en unos chips pongan mas CUs que en otros, no andar diseñando CUs para cada chip, demasiado coste de I+D

dunkam82 escribió:El reloj base es el mismo 2,30 Ghz para las dos.

Eso es redondeado, ya puse que era solo 0.3% menor en la 5080, 2295Mhz vs 2300Mhz

Los datos que yo he puesto son de la tabla de envidia que en algunos casos como la IA y el RT no te dan los núcleos como tal sino que te dan el rendimiento en TOPS y RT Teraflops respectivamente que te dan esos núcleos que a fin de cuentas es lo importante y en rendimiento son esas las diferencias, ya que los núcleos IA y los RT también pueden ir a diferentes velocidades por lo tanto el rendimiento que dan es lo importante y son los datos que yo he puesto.

Imagen

La diferencia entre una 4080 y una 4090 estaba en un promedio de un 27% y la diferencia de precio era mayor que eso pero todos haciéndose polvo con la 4090, no veo cuál es el drama o la crítica cuando ahora con una 5080 vas a tener un ¿20, 25, 28, 30%? más de rendimiento y la diferencia de precio con la 5070Ti será inferior que la que había entre la 4080 y la 4090
ranadetierra escribió:dios que tocha vista asi en la mano

A ver, el tio tapa parte de la mano con la manga para que parezca mas grande ... no te puedes fiar de nadie ya.

dunkam82 escribió:La diferencia entre una 4080 y una 4090 estaba en un promedio de un 27%

Teniendo un 40% mas de nucleos mejoraba un 27% ... y tu esperas que con un 20% mas, esta vez la mejora sea de mas de 20% ... ya hablaremos cuando lleguen los benchmark de terceros, no los TFLOPS de marketing
654321 escribió:
ranadetierra escribió:dios que tocha vista asi en la mano

A ver, el tio tapa parte de la mano con la manga para que parezca mas grande ... no te puedes fiar de nadie ya.

dunkam82 escribió:La diferencia entre una 4080 y una 4090 estaba en un promedio de un 27%

Teniendo un 40% mas de nucleos mejoraba un 27% ... y tu esperas que con un 20% mas, esta vez la mejora sea de mas de 20% ... ya hablaremos cuando lleguen los benchmark de terceros, no los TFLOPS de marketing

En juegos que hagan uso de DLSS 4 y Ray Tracing una mejora de un 20% la veo totalmente factible con un 20% más de núcleos CUDA, una mejora del 28% de rendimiento con IA y una mejora del 28% en rendimiento de Ray Tracing si es que no acaba siendo mayor.

Por supuesto en rasterización, sin DLSS 4 y sin Ray Tracing las diferencias serán ridículas, pero cuando esas dos cosas entren en la ecuación y el juego X lleve ambas cosas creo que si se podrá ver esa diferencia del 20%, quizás peco de optimista, pero ya lo veremos.
@dunkam82 eso será con respecto a tarjetas de las misma potencia raster de la generación anterior seguramente.

A mi esta 5080 me recuerda a la 4080 12GB de la generación anterior, puro humo, ojala me equivoque y luego en los benchmark sea un mostruo.
654321 escribió:@dunkam82 eso será con respecto a tarjetas de las misma potencia raster de la generación anterior seguramente.

A mi esta 5080 me recuerda a la 4080 12GB de la generación anterior, puro humo, ojala me equivoque y luego en los benchmark sea un mostruo.

Sea lo que sea para mi va a ser una mejora importante respecto a mi 3080 y la voy a disfrutar como un gorrino en una charca de barro.
@dunkam82 Yo tambien estoy con la 3080, y mi idea es pillarme la 5070Ti, o esperarme a la 5080 de 24GB ... los benchmark podrian hacerme cambiar de opnión si la 5080 es una bestia parda.
ditifet escribió:
metallah escribió:
titus_99 escribió:Metal líquido??
Uff en la ps5 hubo problemas de derrames yo por suerte no los he tenido y la tengo desde que salió prefiero alhomadillas térmicas.

Es que eso fue un bulo total...

Sobre la fuente, cada vez estoy inclinándome más por la 5080 y junto con un 9700 o algo parecido estoy por quedarme sin problema con mi fuente de 750W, ya que el consumo se va a unos 550W. Creo que aún hay margen de sobra para que no pase nada. Sí al final me hago con el 9800x3d sí que me pensaría cambiarla. Aún así el consumo estimado está en torno a los 600 - 650 W en el peor de los casos y aún habría margen, aunque menos.

Saludos.


La gente está muy obsesionada con las fuentes, la mayoria las tienen sobredimiensionadas.

Yo tengo una 3090 con OC, ella sola se traga 390W, un ryzen 5600x a 4550mhz todos los cores, traga 120W, suman 510W + 65 de placa y discos. Todo mirando con un medidor de pared.

Son 575W y voy con una CMW de 650W, la tengo de hace 5 años y con esta config 3 años. Ni 1 solo problema.

Se que en mi caso no voy muy sobrado pero la gente con las 5080 que van a consumir lo mismo que mi 3090 están metiendo fuentes de +1000W, a la mierda hombre.


Entonces yo que tengo una buena fuente de 750w be quiet 100% modular serie 11 power no recomiendas aumentar a 850w para meter la 5080?

Tengo un i9 12th 32 gb ram ddr4, 9 ventiladores un disco duro m.2 en la placa y otro ssd

Segun outervision psu calculator mi pc sin grafica consume 382W con la cpu al 90 % y segun nvidia la 5080 consume 360W

Lo que da 742W

No crees que será muy justo?

Que puede pasar si se pasa de W?
Cuando las anunciaron, pensé vender mi 4070. Pero viendo el tema de los precios inflados se me está quitando el calenton. Que me recomendáis hacer?
basterwol escribió:Cuando las anunciaron, pensé vender mi 4070. Pero viendo el tema de los precios inflados se me está quitando el calenton. Que me recomendáis hacer?


Esperar a ver qué es lo que realmente sale y a qué precio (no hay pruebas de rendimiento). También a ver la 9700xt de AMD.

Es lo que yo haría, prefiero palmar un poco a quedarme sin gráfica y también saber todos los datos para poder cambiar, incluso comprar la gráfica y si no convence se devuelve.

Que pinta bien pero nvidia vive en su mundo y según ellos todo es maravilloso pero a la hora de la verdad siempre hay alguna pega.
elamos escribió:
ditifet escribió:
metallah escribió:Es que eso fue un bulo total...

Sobre la fuente, cada vez estoy inclinándome más por la 5080 y junto con un 9700 o algo parecido estoy por quedarme sin problema con mi fuente de 750W, ya que el consumo se va a unos 550W. Creo que aún hay margen de sobra para que no pase nada. Sí al final me hago con el 9800x3d sí que me pensaría cambiarla. Aún así el consumo estimado está en torno a los 600 - 650 W en el peor de los casos y aún habría margen, aunque menos.

Saludos.


La gente está muy obsesionada con las fuentes, la mayoria las tienen sobredimiensionadas.

Yo tengo una 3090 con OC, ella sola se traga 390W, un ryzen 5600x a 4550mhz todos los cores, traga 120W, suman 510W + 65 de placa y discos. Todo mirando con un medidor de pared.

Son 575W y voy con una CMW de 650W, la tengo de hace 5 años y con esta config 3 años. Ni 1 solo problema.

Se que en mi caso no voy muy sobrado pero la gente con las 5080 que van a consumir lo mismo que mi 3090 están metiendo fuentes de +1000W, a la mierda hombre.


Entonces yo que tengo una buena fuente de 750w be quiet 100% modular serie 11 power no recomiendas aumentar a 850w para meter la 5080?

Tengo un i9 12th 32 gb ram ddr4, 9 ventiladores un disco duro m.2 en la placa y otro ssd

Segun outervision psu calculator mi pc sin grafica consume 382W con la cpu al 90 % y segun nvidia la 5080 consume 360W

Lo que da 742W

No crees que será muy justo?

Que puede pasar si se pasa de W?


Jugando tu pc no consume 382W, lo hace en pruebas de estrés de cpu. Jugando consumirá 150W a lo sumo.

Nunca vas a estar consumiendo 382W de CPU y 360W de GPU a la vez.
basterwol escribió:Cuando las anunciaron, pensé vender mi 4070. Pero viendo el tema de los precios inflados se me está quitando el calenton. Que me recomendáis hacer?

Con una 4070 no tienes prisa, si salen al precio oficial pues adelante, pero sino, yo me esperaba.

No creo que salgan inflados la verdad, Biden acaba de dar otro palo a NVIDIA limitando la exportación de chips para IA, así que tendran chips suficientes.
@654321 Biden en 9 días se va para el geriátrico. Lo que no sé es qué hará Trump porque no me informo sobre eso.

Pero vaya, que lo que termine haciendo Trump quizás no lo sepa nadie.
ranadetierra escribió:dios que tocha vista asi en la mano


Bueno, se nota que la mano es pequeña... xD
parh escribió:se rumoreaba que la que equiparia grafica nvidia es la proxima Xbox (nombre en clave Xbox Next)

No tenía ni idea. Me había parecido escuchar hace unos meses que la Switch 2 también tiraría de nVidia.
Mientras vengan mejoras notables, me subo al carro que sea.

Gracias por la información, Parh. [oki]

pinturito escribió:Si funciona bien por qué no lo vas a activar? Habrá juegos muy exigentes que si quieres activar PT vas a tener que tirar si o si de MFG, cómo dirían en el mandalorian, "éste es el camino" [+risas]

Puf! Es que la TV donde voy a montar la 5000 es de 60Hz, lo que me haría usar el FG desde 30fps, y tengo unos ojos de mierda que se centran en cada defecto o fallo, y a falta de verlo en persona, creo que con tan pocos fps se tiene que notar.

Creo que ya comenté en otro hilo que tengo una TCL805C comprada hace 13 meses y aún está sin usar porque no puedo separarme de la vieja, que le vendría de perlas a la 5000, pero tengo que aceptar el cambio primero. [ayay] Entiendo que acabaré montándola porque sí me parece muy jugoso usar el FG para pasar de 60Hz a 120Hz, pero necesito tiempo para madurarlo y dejarla ir.

Sip, este es el camino. XD
@parh Xbox con NVIDIA ? Se pasan de X86 a ARM ? Pq las APUs de NVIDIA son todas con ARM que yo sepa ... :O

pakolo1977 escribió:@654321 Biden en 9 días se va para el geriátrico.

De momento la ley se queda aprobada. Tu crees que Trump va a ser mas clemente con las exportaciones de Hi Tech a china ? Al contrario, igual hasta las endurece mas.
ranadetierra escribió:dios que tocha vista asi en la mano

Puede ser una mano asiática pequeña ¿?.pero en cualquier caso aunque tenga dos ventiladores no es pequeña.
654321 escribió:@parh Xbox con NVIDIA ? Se pasan de X86 a ARM ? Pq las APUs de NVIDIA son todas con ARM que yo sepa ... :O

pakolo1977 escribió:@654321 Biden en 9 días se va para el geriátrico.

De momento la ley se queda aprobada. Tu crees que Trump va a ser mas clemente con las exportaciones de Hi Tech a china ? Al contrario, igual hasta las endurece mas.


se supone que solo la GPU. La primera xbox ya llevaba grafica nvidia
Javi el viciao escribió:
rusochan escribió:un ryzen5 5600X podrá con una 5070ti ?
o tendré que hacer oc? o ni con esas
tendría que ponerle otra cpu, cual?
gracias

Yo también tengo un 5600X y me planteo la compra de la 5070ti. Mi intención es jugar a 4k@60 y la teoría es que al no ir a muchísimos frames el procesador tendrá menos carga. Pero vengo de una 1070 y ahora hay tanta tecnología en la gpu que ya me pierdo un poco, a ver si alguien nos da una respuesta más precisa.


Yo os recomiendo que pilleis un 5700x3d, que aliexpress se encuentra entre 160-200€ según el día y es una solución barata y eficaz hasta que llegue am6. No vais a notar una mejora bestial de fps, pero eliminareis en posible stuttering que tengáis con el 5600. Os lo digo xq yo estas navidades hice eso: pasé de un 5600 con una 6800xt en 1440p en el que algún juego, jugando a más de 60 fps, tenía partes que pegaba tirones a ir como la seda y ganar sobre un 10% de frames. El Howards legacy, por ejemplo, que es un juego al que jugaba a 75 fps, pasé a unos 90 pero eliminando sobretodo los tirones en el pueblo. De nada sirve jugar a muchos fps si el frametime es inestable.

Pasar a cpus mejores ya es cambiar placa, memoria y cpu. Y las cpu de am5 no son precisamente baratas.

Me queda la duda de qué tal irá el MFG de nvidia con cpus más discretras. No sé muy bien si lo complicará todo porque se van a mostrar más frames y la cpu debe servirlos, o bien se liberará trabajo en la cpu.
654321 escribió:
dunkam82 escribió:No sé por qué algunos os empeñáis en hacer ver que no hay diferencias entre una y la otra cuando si las hay.

Para nada, lo que decimos es que el precio aumenta mas que las mejoras de rendimiento.
Obviamente es mejor la 5080, pero lo bastante mejor como para ser un 33% mas cara ?




Bueno eso de un 33% mas cara habra que verlo.

No va a salir founder de la 5070ti y eso lo saben las ensambladoras, ese precio base es de algo que no existe, es ficticio, por lo tanto las ensambladoras le meteran 3 ventiladores y un pbc mejor y tranquilamente subiran 100-150€ minimo.

No creo que vayamos a ver una 5070ti custom por precio de founder, básicamente porque todas las ensambladoras saben que no tienen competencia por parte de nvidia, solo entre ellas y todos sabemos que tienen pactos de los precios.

Asi que lo mas seguro que el precio de la 5070ti mas barata que podamos ver este mucho mas cerca al precio de una founder 5080.

Al menos de lanzamiento.

Igualmente hay que ver que rendimiento real tienen y ver si merece la pena ese gasto extra y también valorar la disponibilidad porque quizas la founder de la 5080 es imposible conseguirla en meses y al final habra que ir a por una custom y ver que precios tienen y a lo mejor no compensa.

Yo también dare el salto desde una 3080 y para mi la VR es un punto muy importante y ahi sabemos que un 15-20% mas de rendimiento real puede significar pasar de jugar bien a jugar mal. Sobretodo en simulación que cada frame cuenta.

Ya veremos a ver cuando tengamos mas datos de rendimiento, de precios de las custom de los materiales y construcción de la founders, disponibilidad, etc... Demasiadas incógnitas para tomar una decisión ahora.

Lo que esta claro que sera una u otra gráfica, que las demas descartadas por vram y precio y la compra sera el dia 30 o no mucho mas tarde.
neofonta escribió:

Y los que habéis comentado ese tweet, @ranadetierra @654321 @neox3.

Hace 2 días pusieron un video en el que se veía mucho mas claro el tamaño de la 5090 founders:



Por poner un ejemplo, seguro que hay muchos otros videos iguales o mejores que ese tweet. Aunque a todo esto ya hay especificaciones oficiales del tamaño, no? Supongo que es mucho mas claro comparar con otras gráficas con esos datos que viendo videos de dudosa calidad.
SECHI escribió:
654321 escribió:
dunkam82 escribió:No sé por qué algunos os empeñáis en hacer ver que no hay diferencias entre una y la otra cuando si las hay.

Para nada, lo que decimos es que el precio aumenta mas que las mejoras de rendimiento.
Obviamente es mejor la 5080, pero lo bastante mejor como para ser un 33% mas cara ?




Bueno eso de un 33% mas cara habra que verlo.

No va a salir founder de la 5070ti y eso lo saben las ensambladoras, ese precio base es de algo que no existe, es ficticio, por lo tanto las ensambladoras le meteran 3 ventiladores y un pbc mejor y tranquilamente subiran 100-150€ minimo.

No creo que vayamos a ver una 5070ti custom por precio de founder, básicamente porque todas las ensambladoras saben que no tienen competencia por parte de nvidia, solo entre ellas y todos sabemos que tienen pactos de los precios.

Asi que lo mas seguro que el precio de la 5070ti mas barata que podamos ver este mucho mas cerca al precio de una founder 5080.

Al menos de lanzamiento.

Igualmente hay que ver que rendimiento real tienen y ver si merece la pena ese gasto extra y también valorar la disponibilidad porque quizas la founder de la 5080 es imposible conseguirla en meses y al final habra que ir a por una custom y ver que precios tienen y a lo mejor no compensa.

Yo también dare el salto desde una 3080 y para mi la VR es un punto muy importante y ahi sabemos que un 15-20% mas de rendimiento real puede significar pasar de jugar bien a jugar mal. Sobretodo en simulación que cada frame cuenta.

Ya veremos a ver cuando tengamos mas datos de rendimiento, de precios de las custom de los materiales y construcción de la founders, disponibilidad, etc... Demasiadas incógnitas para tomar una decisión ahora.

Lo que esta claro que sera una u otra gráfica, que las demas descartadas por vram y precio y la compra sera el dia 30 o no mucho mas tarde.


No tiene por qué. En las 3070 tampoco hubo 3070ti sin embargo salieron las de ensambladoras a precio msrp
ditifet escribió:
SECHI escribió:
654321 escribió:Para nada, lo que decimos es que el precio aumenta mas que las mejoras de rendimiento.
Obviamente es mejor la 5080, pero lo bastante mejor como para ser un 33% mas cara ?




Bueno eso de un 33% mas cara habra que verlo.

No va a salir founder de la 5070ti y eso lo saben las ensambladoras, ese precio base es de algo que no existe, es ficticio, por lo tanto las ensambladoras le meteran 3 ventiladores y un pbc mejor y tranquilamente subiran 100-150€ minimo.

No creo que vayamos a ver una 5070ti custom por precio de founder, básicamente porque todas las ensambladoras saben que no tienen competencia por parte de nvidia, solo entre ellas y todos sabemos que tienen pactos de los precios.

Asi que lo mas seguro que el precio de la 5070ti mas barata que podamos ver este mucho mas cerca al precio de una founder 5080.

Al menos de lanzamiento.

Igualmente hay que ver que rendimiento real tienen y ver si merece la pena ese gasto extra y también valorar la disponibilidad porque quizas la founder de la 5080 es imposible conseguirla en meses y al final habra que ir a por una custom y ver que precios tienen y a lo mejor no compensa.

Yo también dare el salto desde una 3080 y para mi la VR es un punto muy importante y ahi sabemos que un 15-20% mas de rendimiento real puede significar pasar de jugar bien a jugar mal. Sobretodo en simulación que cada frame cuenta.

Ya veremos a ver cuando tengamos mas datos de rendimiento, de precios de las custom de los materiales y construcción de la founders, disponibilidad, etc... Demasiadas incógnitas para tomar una decisión ahora.

Lo que esta claro que sera una u otra gráfica, que las demas descartadas por vram y precio y la compra sera el dia 30 o no mucho mas tarde.


No tiene por qué. En las 3070 tampoco hubo 3070ti sin embargo salieron las de ensambladoras a precio msrp


Ojala vuelva a ocurir ahora.
@654321 Pues sí, probablemente sea eso lo que pase.

Joder a China a la larga no tiene mucho sentido porque se les ve que quieren competir en todas partes, sobre todo cuando tienen carencias sobre algo. Si no les dejan desarrollar la ia a la americana, terminarán desarrollando la ia a su manera con total seguridad.

Siempre recuerdo aquel episodio de mr. robot... Quizás Trump haya sido apoyado indirectamente por los chinos, porque tener enemigos declarados siempre le viene bien a los políticos locales, no hay nada que una más algo que una amenaza externa. Y a los chinos les gusta hacer las cosas a su manera, por el tema del control de la población y eso.

Por aquí pensamos que no nos controlan, pero solamente es menos evidente.

Dejo el offtopic ya.
Por si a alguien le interesa el juego del mono con Path Tracing sin DLSS 4 y con DLSS 4 Rendimiento y Multi Frame Generation, por lo que se ve en el video en nativo se ve mejor el personaje pero en cosas como la vegetación hay simmering y activando el DLSS 4 Rendimiento con Multi Frame Generation se ve un poquito más borroso el personaje pero se reduce/elimina el simmering en la vegetación



Quiero pensar que cambiando ese DLSS 4 de Rendimiento a Calidad ese personaje se vería con más calidad quitando el borroso, en fin toca esperar ya va quedando menos.
vengo de una 3080ti y ando entre la 5070ti y la 5080 ¿vosotros que haríais? fuente de 850w con conector estándar, tendría que tirar de adaptador cosa que m da igual
Mikel24 escribió:vengo de una 3080ti y ando entre la 5070ti y la 5080 ¿vosotros que haríais? fuente de 850w con conector estándar, tendría que tirar de adaptador cosa que m da igual


yo tengo la 3080 y voy a por una 5080, en principio con la fuente de 750w, de las buenas eso si.

por cierto supongo que con un i9 12900k no habra grandes cuellos de botella con esta gpu verdad? nada mas faltaría que tuviera que cambiar tambien la cpu..
parh escribió:se supone que solo la GPU. La primera xbox ya llevaba grafica nvidia

Y eso no encarece mucho la consola hoy en día ? Yo con lo que habías dicho pensaba que iban a hacer un poco como Apple con los Mac ...
elamos escribió:
Mikel24 escribió:vengo de una 3080ti y ando entre la 5070ti y la 5080 ¿vosotros que haríais? fuente de 850w con conector estándar, tendría que tirar de adaptador cosa que m da igual


yo tengo la 3080 y voy a por una 5080, en principio con la fuente de 750w, de las buenas eso si.

por cierto supongo que con un i9 12900k no habra grandes cuellos de botella con esta gpu verdad? nada mas faltaría que tuviera que cambiar tambien la cpu..

Sinceramente con ese procesador creo que vas justo de potencia en la fuente, deberías de ir a por una de 850W como recomiendan los fabricantes.

Si tuvieras una CPU de AMD Ryzen que chupa menos podrías ir con esa fuente pero con un i9 de Intel no lo veo buena idea.
Mikel24 escribió:vengo de una 3080ti y ando entre la 5070ti y la 5080 ¿vosotros que haríais? fuente de 850w con conector estándar, tendría que tirar de adaptador cosa que m da igual


Tengo entendido que las propias gráficas vienen con el cable de 12 pines. No solo las 5000, sino las 4000 que también lo necesitan.

No te lo podría asegurar.
dunkam82 escribió:
654321 escribió:
dunkam82 escribió:No sé por qué algunos os empeñáis en hacer ver que no hay diferencias entre una y la otra cuando si las hay.

Para nada, lo que decimos es que el precio aumenta mas que las mejoras de rendimiento.
Obviamente es mejor la 5080, pero lo bastante mejor como para ser un 33% mas cara ?

dunkam82 escribió:Núcleos IA: 1801 vs 1406 (+28%)

No, 336 vs 280, +28%

dunkam82 escribió:Núcleos RT: 171 vs 133 (28.57%)

No, 84 vs 70, +20%.

No tiene sentido que los nucleos de IA aumenten mas que los demas, las Compute Units de Blackwell lo normal es que sean siempre iguales, y que en unos chips pongan mas CUs que en otros, no andar diseñando CUs para cada chip, demasiado coste de I+D

dunkam82 escribió:El reloj base es el mismo 2,30 Ghz para las dos.

Eso es redondeado, ya puse que era solo 0.3% menor en la 5080, 2295Mhz vs 2300Mhz

Los datos que yo he puesto son de la tabla de envidia que en algunos casos como la IA y el RT no te dan los núcleos como tal sino que te dan el rendimiento en TOPS y RT Teraflops respectivamente que te dan esos núcleos que a fin de cuentas es lo importante y en rendimiento son esas las diferencias, ya que los núcleos IA y los RT también pueden ir a diferentes velocidades por lo tanto el rendimiento que dan es lo importante y son los datos que yo he puesto.

Imagen

La diferencia entre una 4080 y una 4090 estaba en un promedio de un 27% y la diferencia de precio era mayor que eso pero todos haciéndose polvo con la 4090, no veo cuál es el drama o la crítica cuando ahora con una 5080 vas a tener un ¿20, 25, 28, 30%? más de rendimiento y la diferencia de precio con la 5070Ti será inferior que la que había entre la 4080 y la 4090


Es escalado no es lineal, tener 30% de más Tflops no se traduce en 30% más de rendimiento.

Y no los RT Cores no van diferentes velocidades, desde la GTX 600 Nvidia abandono el hotclock y utiliza frecuencias unificada para todo el chip, los RTCore ,Tensor Core, Cudas y todo el Front End va a la frecuencia del Clock.
yo me hice con una 4070ti super y vienen con el adaptador
HakiGold escribió:Es escalado no es lineal, tener 30% de más Tflops no se traduce en 30% más de rendimiento.

Y no los RT Cores no van diferentes velocidades, desde la GTX 600 Nvidia abandono el hotclock y utiliza frecuencias unificada para todo el chip, los RTCore ,Tensor Core, Cudas y todo el Front End va a la frecuencia del Clock.

Vamos a hacer matemáticas.

Según @654321 la 5070 Ti tiene 280 núcleos de IA y en la web de NVIDIA pone que dan un rendimiento 1406TOPS, según eso cada núcleo daría un rendimiento de 5.0214 TOPS.

La 5080 tiene 336 núcleos que haciendo matemáticas si no cambia nada en los núcleos según tú debería de ser 1687 TOPS sin embargo en la web de NVIDIA dice que el rendimiento de la 5080 es de 1801 TOPS. Por lo que hay una diferencia de 114TOPS.

Así que explícame si los núcleos son iguales de una a otra de dónde sale esa diferencia.

Al final si la 5080 va más alta de frecuencias de reloj que la 5070Ti da más rendimiento y vuelvo a decir que al final lo importante es el rendimiento que ofrece (+28%) no la diferencia de núcleos, aplicado a la IA, a RT y todo en general.
@dunkam82 @654321
No queda más remedio que esperar a los benchmarks y precios reales para ver si vale la pena lo que ofrece una respecto a la otra. Todo lo demás son conjeturas, pero yo creo que sí va a haber diferencia como para hacernos dudar entre la 5070TI y la 5080.

Saludos.
Pues ya está vendida la 4080 super, 820 ahora a esperar al 30,a tirar de PS5 y Switch ( A ver si en estos días me termino el BOTW y así la segunda parte la juego en el PC jeje).
Abel_NC escribió:
Mikel24 escribió:vengo de una 3080ti y ando entre la 5070ti y la 5080 ¿vosotros que haríais? fuente de 850w con conector estándar, tendría que tirar de adaptador cosa que m da igual

No tendrias que comprar nada. Todas las graficas vienen con el adaptador. Luego en algunos modelos, quizas no en todos, no podria asegurarlo, y esto no creo que cambie en las 50.

Luego en algunos modelos, quizas no en todos, aunque yo lo he visto en muchas, en graficas de 3 ventiladores de las RTX 40, se incluyen soportes adicionales por si acaso se doblan. Hay varios sistemas, las gigabyte como la mia, incluyen una chapa que se atornilla al final de la grafica a la placa base, queda bien, no estorba, funciona. Otras usan apoyos a los tornillos de la grafica y me da que alguna un palo a secas. Ya digo que hay varios sistemas.
chico habeis visto las fotos de las de gigabyte la 5090 lleva un ventilador extra por la parte arriba de la grafica??!! }:/ la veo rara y fea, o se supone que es opcional?? [mad] [mad]
5850 respuestas