[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

neox3 escribió:
KailKatarn escribió:
Rvilla87 escribió:Está claro que nunca te puedes equivocar, a nivel calidad, si te vas a la CPU mas potente, pero ese no era el motivo de mi duda. Creo que nadie duda en si un 13900k (720€) es mejor que un 7600/13600 (320€). La duda es si vale la pena gastarte mas del doble de dinero en lo mas top si quizás con algo mucho mas barato a nivel de rendimiento de juegos solo pierdes unos pocos fps. Sí, comentas lo del frametime que es muy importante, pero aún así me gustaría ver el frametime con CPUs menos potente a ver cómo se comportan.

Y esa duda, como llevo diciendo varios mensajes, no veo ninguna buena comparativa que me la resuelva. Lo que veo es que las comparativas de CPUs las han probado con la 3090 (ya desfasada con la 4090) y las comparativas de 4090 solo prueban con procesadores top (13900k por ejemplo) o con otros procesadores menos potentes pero ignorando la 4k o poniendo juegos en 4k pero que van a muchos fps (bajando gráficos, siendo juegos multiplayer competitivos, etc).

Es que sin información contrastada que revisar ya es un tema de creerse lo que diga alguien de un foro sin saber si lo que dice tiene mas o menos sentido y apostar tu dinero en su afirmación (sin demostrarlo). Por ejemplo en tu caso así por encima casi que solo recuerdo decirle a un forero que lo había hecho bien en la elección de la CPU con una 4090 cuando eligió una 13900k. Claro, yendo a lo mas pepino es difícil equivocarse. Mi duda va más allá, y es saber qué hace una CPU con menor potencia (por ejemplo 7600X o 13600k) tan poco capaz como para ser (o no) para para una 4090 con juegos a 4k: un mínimo de cores potentes, los de consumo, tener un mínimo de threads o cores, unos mhz mínimos, etc.

Sin entrar a ese detalle, creo que esta duda me la resolverán los análisis de futuras CPUs que corran con una 4090... por el momento como digo no he sido capaz de encontrar info fiable.



Eso que preguntas del 7600X o 13600K son preguntas fáciles, más que nada porque te van a dar un rendimiento muy similar a un 13900K en el 95% de los títulos, con frametimes muy similares. Ahora bien, si veo a un usuario ponerse un 13900K con una 4090 pues claro que le voy a decir que sabe lo que se hace, porque en cualquier situación va a poder tener los mejores fps mínimos y frametime en cualquier juego, inclusive en esos que son capaces de usar 8 cores / 16 hilos o más. Que son muy pocos hoy por hoy? sin duda, pero para ese tipo de usuario ya da igual que llueva o truene que está preparado.

Si al final todo se reduce al IPC. Un 13600K lo va a tener muy similar al 13900K salvo en esos títulos que conforman el 5%. Luego ya es cuestión de cada uno si prefiere dejarse más o menos, pero vamos, si te has dejado 2000 pavazos en una gráfica es porque eres un usuario exigente y quieres tener el mejor resultado pase lo que pase. Yo personalmente no me dejaría esos 2000 pavazos para que el día de mañana el título que te guste, o uno que quieras disfrutar justo te de por culo. Por eso una jugada inteligente es el 13700K, que te ofrece el mismo número de núcleos Performance y no te van a pillar tampoco por ahí.

Lo que sí tiene gracia es que comentes cosas como "es que hay que fiarse de uno que dice cosas por un foro" y luego bien que te fías y le das thanks a la gente que menciona que con cualquier micro se puede jugar a 4K o llevar a buen puerto una 4090. No se puede estar en misa y replicando a la vez.


el 13900k solo es mejor si usas todos los cores... pero si coges y lo limitas a 6 cores 12 hilos 13600k vs 13900k, están igualados.... porque la base es el mismo procesador

para muestra, un botón, mi 13600k con los ecores desactivados para no pasar así de 80 grados usando todos los Pcores e hilos:

Imagen

Imagen

Y se puede apretar más, lo he llegado a tener a 5750mhz con el BLCK A 101 pero la ram me hacia cosas raras... y también lo he tenido con a mayores solo 2 ecores activos, pero los he acabado quitando porque windows (o el procesador) con adobe after effects manda la tarea de codificar un video a los ecores en vez de a los pcores, y estamos hablando de una diferencia de tiempo en un video de 25 minutos, de 49 minutos de codificación con 2 pcores VS 1:30min con 2 ecores...

Por comparar, mi ex 5800x hacia en monocore, 640 puntos...

Ahí es a dónde voy.Que al final, lo importante es el IPC ,quitando 3 juegos puntuales que sí puedan sacar un poco más a esos núcelos o hilos extra.
Ayer instalé este conector por 21€:

https://amzn.eu/d/6rtlIwq

Super recomendable. Mucho mejor de lo que esperaba.

Me ha dado mucha mas sensación de calidad de lo que me pareció por las fotos

Los cables son finos pero muy recios, parecen alambre al manipularlos. Eso te permite guiarlos con facilidad. Además,trae unas guias de plástico para ordenarlos.

El crimpado de los cables al conector es sólido no hay juego ninguno y este encaja mejor que el adaptador.

Puedes doblarlo mucho mejor y mas cerca del conector que el adaptador de nvidia por lo que no hace falta tanto espacio de cara a poner la tapa.

Imagen
Imagen
Imagen
Imagen
Imagen
Bueno unas fotillos 4090 founders vs 6950 XT la founders es mas pequeña no se porque la gente dice que las 4090 son gigantes cuando amd viene de lo mismo...

Imagen

Imagen
neox3 escribió:el 13900k solo es mejor si usas todos los cores... pero si coges y lo limitas a 6 cores 12 hilos 13600k vs 13900k, están igualados.... porque la base es el mismo procesador

Y se puede apretar más, lo he llegado a tener a 5750mhz con el BLCK A 101 pero la ram me hacia cosas raras... y también lo he tenido con a mayores solo 2 ecores activos, pero los he acabado quitando porque windows (o el procesador) con adobe after effects manda la tarea de codificar un video a los ecores en vez de a los pcores, y estamos hablando de una diferencia de tiempo en un video de 25 minutos, de 49 minutos de codificación con 2 pcores VS 1:30min con 2 ecores...

Por comparar, mi ex 5800x hacia en monocore, 640 puntos...


Efectivamente, no le restaré una coma a lo que has dicho, sobretodo lo que has apuntado de los 640 puntos de un 5800X, que por mucho que se venda por aquí, pierde casi un 50% de monocore frente a un Gen 13, vamos, lo que viene a ser una burradísima en gaming. Ahora bien, también es cierto que un 13900K/13700K sacará provecho a aquellos títulos que sean capaz de exprimir sus 8 performance vs los 6 del 13600K.
medearu1986 escribió:Bueno unas fotillos 4090 founders vs 6950 XT la founders es mas pequeña no se porque la gente dice que las 4090 son gigantes cuando amd viene de lo mismo...

Imagen

Imagen

Joder....la 6950XT es enorme.
Un poco menos gruesa pero un poco más larga.
hh1 escribió:
medearu1986 escribió:Bueno unas fotillos 4090 founders vs 6950 XT la founders es mas pequeña no se porque la gente dice que las 4090 son gigantes cuando amd viene de lo mismo...

Imagen

Imagen

Joder....la 6950XT es enorme.
Un poco menos gruesa pero un poco más larga.


Eso es lo que me ha resultado gracioso al recibir la 4090, hay gente que hace memes con que no cabe en la caja con que se queman o consumen mucho... etc etc etc, y resulta que hay gráficas mas grandes en el mercado y de nuestra amiga AMD, pero si amiguitos ahora viene AMD con la 7950XTX más pequeña menor consumo y por 1000 dólares a salvar la situación...
Hombre, si comparais una FE con una de gama alta de ensamblador que suelen ser mas grandes...Comparad esa Nitro con la asus strix 4090 por ejemplo y vereis la diferencia. Comparad FE contra FE para ser justos
4090 304x137x61 mm
6950XT 267x120x50 mm
medearu1986 escribió:
hh1 escribió:
medearu1986 escribió:Bueno unas fotillos 4090 founders vs 6950 XT la founders es mas pequeña no se porque la gente dice que las 4090 son gigantes cuando amd viene de lo mismo...

Imagen

Imagen

Joder....la 6950XT es enorme.
Un poco menos gruesa pero un poco más larga.


Eso es lo que me ha resultado gracioso al recibir la 4090, hay gente que hace memes con que no cabe en la caja con que se queman o consumen mucho... etc etc etc, y resulta que hay gráficas mas grandes en el mercado y de nuestra amiga AMD, pero si amiguitos ahora viene AMD con la 7950XTX más pequeña menor consumo y por 1000 dólares a salvar la situación...

Jajajja.
Vamos a ver primero el precio final de las 7900XTX que pinta a 1250€ ,pero que ya sabemos lo pro que es s AMD en cargala en estas cosas.

La futura 7950XT pinta a no menos de 1600€ ...vamos ,eso seguro.
Y cuando veamos el temaño de la 7900, podremos hacernos idea de lo que será de grande la otra.
Serán tochas ,eso seguro.
@leonigsxr1000
Leoni, tu que controlas el tema TV con tu canal de Youtube, hay previsión de alguna oled 8k de 55 pulgadas , a poder ser LG, u otras con gsync compatible ,para conectar la 4090? Con la bestia esta de GPU, me pica probar esa resolución. No OLED no party
Por cierto, hoy me llegó el cable de 600w de corsair, ya pondré impresiones.
Salu2
hh1 escribió:Y cuando veamos el temaño de la 7900, podremos hacernos idea de lo que será de grande la otra.
Serán tochas ,eso seguro.

De las FE o de las custom? Las custom son grandes, solo hay que ver la powercolor (la TUF también lo parece, la sapphire poco se ha visto). Las FE son como las Fe de las 6000
silenius escribió:
hh1 escribió:Y cuando veamos el temaño de la 7900, podremos hacernos idea de lo que será de grande la otra.
Serán tochas ,eso seguro.

De las FE o de las custom? Las custom son grandes, solo hay que ver la powercolor (la TUF también lo parece, la sapphire poco se ha visto). Las FE son como las Fe de las 6000

Pues si las FE son grandes ,las custom imagino que lo serán igual o más.
La 4090 FE ,lo que tienes es que es muy gruesa,más que larga.
Impresiona ver que ocupa tantos slots.
_c_ escribió:Ayer instalé este conector por 21€:

https://amzn.eu/d/6rtlIwq

Super recomendable. Mucho mejor de lo que esperaba.

Me ha dado mucha mas sensación de calidad de lo que me pareció por las fotos

Los cables son finos pero muy recios, parecen alambre al manipularlos. Eso te permite guiarlos con facilidad. Además,trae unas guias de plástico para ordenarlos.

El crimpado de los cables al conector es sólido no hay juego ninguno y este encaja mejor que el adaptador.

Puedes doblarlo mucho mejor y mas cerca del conector que el adaptador de nvidia por lo que no hace falta tanto espacio de cara a poner la tapa.

Imagen
Imagen
Imagen
Imagen
Imagen


Es muy valiente por tu parte un cable sin marca.. esperemos que vaya bien.

Yo lo vi y no me atrevi. Ya no hay por cierto
hh1 escribió:
silenius escribió:
hh1 escribió:Y cuando veamos el temaño de la 7900, podremos hacernos idea de lo que será de grande la otra.
Serán tochas ,eso seguro.

De las FE o de las custom? Las custom son grandes, solo hay que ver la powercolor (la TUF también lo parece, la sapphire poco se ha visto). Las FE son como las Fe de las 6000

Pues si las FE son grandes ,las custom imagino que lo serán igual o más.
La 4090 FE ,lo que tienes es que es muy gruesa,más que larga.
Impresiona ver que ocupa tantos slots.

Grandes grandes no son mucho, antes he puesto las de la FE de la 6950xt y es mas pequeña que la 4090fe. Las de 7900xtx son las mismas solo que un pelin mas larga, 287mm
@chrispro

El que trae la tarjeta es de nvidia y ya te digo que tiene peores acabados y ajustes.

El cable este está muy bien rematado por todos los sitios. Si no, lo hubiera devuelto.
_c_ escribió:@chrispro

El que trae la tarjeta es de nvidia y ya te digo que tiene peores acabados y ajustes.

El cable este está muy bien rematado por todos los sitios. Si no, lo hubiera devuelto.


Lo importante no es el acabado sino la potencia que aguanta los hilos. Pero seguro que ira bien… bichealo unos dias para estar mas tranquilo
chrispro escribió:en ningun momento critico quien quiere jugar con la grafica echandole diesel, ni quien quiere perder frames por unos graditos ni tampoco quien quiere bajar unos watios el consumo …
Por mi que hagan lo que quieran, todo eso no le quita credibilidad a mi frase:

No sabia que habia tanto ecologista por aqui pendiente del consumo

Pues si dices que no criticas a los que según tu llamas "ecologistas", revisa el significado de ser ecologista porque no vas muy acertado. No digo que no haya ecologistas entre la gente que dice de consumir poca electricidad, pero hay otro motivo que a mi me parece mucho mas evidente y es el simple hecho de NO querer regalar dinero a las eléctricas para ganar unos casi imperceptibles fps. O dicho de otra forma, tirar dinero a la basura de forma inútil. Y esto se puede hacer y pensar sin ser ecologista.


KailKatarn escribió:Si al final todo se reduce al IPC. Un 13600K lo va a tener muy similar al 13900K salvo en esos títulos que conforman el 5%. Luego ya es cuestión de cada uno si prefiere dejarse más o menos, pero vamos, si te has dejado 2000 pavazos en una gráfica es porque eres un usuario exigente y quieres tener el mejor resultado pase lo que pase. Yo personalmente no me dejaría esos 2000 pavazos para que el día de mañana el título que te guste, o uno que quieras disfrutar justo te de por culo. Por eso una jugada inteligente es el 13700K, que te ofrece el mismo número de núcleos Performance y no te van a pillar tampoco por ahí.

Vale, con lo del IPC ya tendría un dato al que darle mas importancia... pero, desde el desconocimiento, si pensamos exclusivamente en gaming, si consigo ver análisis de frametime y FPS podría ignorar el ICP? Por ejemplo si tiene mucha caché (como los AMD 3D) puede que eso haga que uno con mayor IPC tenga un peor rendimiento que otro con menor ICP y mayor caché, no?

Al final a mi me importa mucho más los datos empíricos que la teoría en estos temas. No trabajo desarrollando CPUs y me da igual lo que haya detrás, lo que me importa es saber escoger la mejor CPU que esté buscando (ya sea calidad o calidad/precio o calidad/precio/consumo o lo que sea). Para eso con fiarme de comparativas de FPS y frametime ya tendría suficiente o debo tener en cuenta el ICP, caché y otras cosas más?

KailKatarn escribió:Lo que sí tiene gracia es que comentes cosas como "es que hay que fiarse de uno que dice cosas por un foro" y luego bien que te fías y le das thanks a la gente que menciona que con cualquier micro se puede jugar a 4K o llevar a buen puerto una 4090. No se puede estar en misa y replicando a la vez, porque eso identifica que lo que te gusta es que se hable de "tu película" o la que preferirías ver.

No te confundas, quizás no me leíste en anteriores mensajes (por ejemplo este), pero es que esto que hago sigue una lógica. Puede parecer que solo escucho lo que me gusta pero es que no es eso. Lo que hago es fiarme mas de los medios profesionales que de los foreros en general (por mucho que alguno pueda saber mas que un medio profesional, cosa que no dudo pero tampoco puedo confirmar). Si un forero dice algo que se acerca mas a lo que dicen los profesionales (los que me convenzan), como es lógico estaré a favor de esa opinión.

Y no es por ser pesado, pero habré preguntado como unas 4 o 5 veces si alguien sabe un análisis bueno donde ver comparaciones de distintas CPUs probando juegos exigentes a 4k con la 4090 y sigo sin tener ni 1 sola respuesta. Por ejemplo en la review de la 13600k de gamersnexus no muestran comparativas de juegos en 4k, ignoran completamente esa resolución e incluso en el min 10:20 dicen que conforme subas de resolución se nota menos una mejor CPU (escala menos) e incluso no escala nada como cuando se juega en 4k en juegos modernos (justo lo que estoy pidiendo, un análisis de eso).

Luego el otro ejemplo de análisis que me parece algo surrealista era el de Hardware Uboxed (que estos ya ignoran incluso los 1440 ¬¬) porque en uno de sus vídeos que ya no recuerdo, sí que comparaban el rendimiento de varias CPUs a 1080, 1440 y 4k pero los ejemplos de 4k llegaron a bajar los gráficos y encima usaban juegos nada exigente para que se vieran muchos fps.

¿Por qué esos medios especializados ningunean tanto la potencia de la CPU en el uso de 4k con juegos?

¿Entiendes ahora por qué me creo unas cosas y por qué no me creo otras? Porque lo que me creo suele ser algo que se ha demostrado. Lo que no me creo no digo que sea mentira, pero si no se demuestra pues comprenderás que no acabe de creérmelo.

No me cansaré de repetirlo, pero se habla mucho y se demuestra muy poco.
anne kinoko escribió:@leonigsxr1000
Leoni, tu que controlas el tema TV con tu canal de Youtube, hay previsión de alguna oled 8k de 55 pulgadas , a poder ser LG, u otras con gsync compatible ,para conectar la 4090? Con la bestia esta de GPU, me pica probar esa resolución. No OLED no party
Por cierto, hoy me llegó el cable de 600w de corsair, ya pondré impresiones.
Salu2

Malas noticias , nuestros queridos gobernantes creo que van a prohibir las tvs 8k en Europa por el tema del ahorro energético los cojones :(

Ahora mismo en 55" 8K no se si habrá algún Q-LED de Samsung por si quieres probar el 8K....si quieres una 8k compra ya pues el año que viene creo que ya no las producen
Yo no me subí a ese carro , prácticamente toda la industria del cine le dio la espalda al 8K , pero molaría jugar en PC a 8k no te lo niego jehe
Un abrazo!!
Kavezacomeback escribió:https://www.coolmod.com/inno3d-geforce-rtx-4080-x3-16gb-gddr6x/?tduid=7570ffaec6bb7ca8e452892b7407392a

4080 ya está listada en tiendas.


Y tal dia como hoy puedo decir, que alli siguen xD
Necrofero escribió:
Kavezacomeback escribió:https://www.coolmod.com/inno3d-geforce-rtx-4080-x3-16gb-gddr6x/?tduid=7570ffaec6bb7ca8e452892b7407392a

4080 ya está listada en tiendas.


Y tal dia como hoy puedo decir, que alli siguen xD


Los entusiastas ya tienen su 4090 y menos alguno de ellos que ha cogido una de esas 4080 el resto se ve no esta dispuesto a gastar esa cantidad.

Tendrán que rebajar un poco.
Estoy mirando el tema del CoilWhine en las 4090...hay algún modelo que tenga mas posibilidades de tenerlo o es una lotería?
KKnot escribió:Estoy mirando el tema del CoilWhine en las 4090...hay algún modelo que tenga mas posibilidades de tenerlo o es una lotería?


En mi limitada experiencia con tres unidades RTX 4090 de diferentes fabricantes (Gigabyte, Asus y la propia Nvidia con su modelo FE) todas tenían coil whine en diferente medida pero apreciable y molesto (depende de la tolerancia y sensibilidad del usuario) sin duda alguna. Finalmente, tras ver que no aprovechaba el fantástico rendimiento de esta gama, me fui a una 4080 MSI Suprim X que sí se adapta al resto de mi equipo y tiene cero coil whine, ni un pequeño ruidito, nada en absoluto, silencio total incluso de los ventiladores cuando raramente se activan. No sé si habré tenido suerte o será algo más extendido, tampoco es que haya muchos más compradores para comparar...
silenius escribió:
hh1 escribió:
silenius escribió:De las FE o de las custom? Las custom son grandes, solo hay que ver la powercolor (la TUF también lo parece, la sapphire poco se ha visto). Las FE son como las Fe de las 6000

Pues si las FE son grandes ,las custom imagino que lo serán igual o más.
La 4090 FE ,lo que tienes es que es muy gruesa,más que larga.
Impresiona ver que ocupa tantos slots.

Grandes grandes no son mucho, antes he puesto las de la FE de la 6950xt y es mas pequeña que la 4090fe. Las de 7900xtx son las mismas solo que un pelin mas larga, 287mm

Pues entonces no lo son tanto ,no ..

@Kavezacomeback
Más que no haya gente dispuesta a gastar lo que vale la 4080, que la hay.Es que ni hay gente dispuesta a gastar ese dinero por ese rendimiento.
Ese es el problema que tienen.

Y si a eso le añades ,que por "poco" tienes la más top con un rendimiento bestial, y que por debajo de su precio va a venir otra que va a ser más potente y más barata...
Pues se las están zampando.

Era algo que se veía venir.Yi no sé en qué piensan.
Ahora ,si la ponen a 1200€ ,la cosa cambia.
Yo creo que con respecto a la 4080 mucha gente esta esparando a ver test realess de las amd y los precios definitivos, antes de tomar una decisión.
Lince_SPAIN escribió:
KKnot escribió:Estoy mirando el tema del CoilWhine en las 4090...hay algún modelo que tenga mas posibilidades de tenerlo o es una lotería?


En mi limitada experiencia con tres unidades RTX 4090 de diferentes fabricantes (Gigabyte, Asus y la propia Nvidia con su modelo FE) todas tenían coil whine en diferente medida pero apreciable y molesto (depende de la tolerancia y sensibilidad del usuario) sin duda alguna. Finalmente, tras ver que no aprovechaba el fantástico rendimiento de esta gama, me fui a una 4080 MSI Suprim X que sí se adapta al resto de mi equipo y tiene cero coil whine, ni un pequeño ruidito, nada en absoluto, silencio total incluso de los ventiladores cuando raramente se activan. No sé si habré tenido suerte o será algo más extendido, tampoco es que haya muchos más compradores para comparar...


Supongo que entonces es pillarla y cruzar los dedos. Tengo ahora una 3090 que es una tumba la verdad, y teniendo el ordenador al lado pues me daría un poco de coraje tener el pitido ahí molestando.
La 7900 xtx va a salir a 1.300 euros casi seguro, si no más. Como Nvidia no baje el precio de la 4080 a lo que valga la 7900 xtx, no vende ni una xD. A igualdad de precios la gente comprará más la 4080 antes que la 7900 xtx, incluso aunque esta última sea un poco mejor.
Lince_SPAIN escribió:
KKnot escribió:Estoy mirando el tema del CoilWhine en las 4090...hay algún modelo que tenga mas posibilidades de tenerlo o es una lotería?


En mi limitada experiencia con tres unidades RTX 4090 de diferentes fabricantes (Gigabyte, Asus y la propia Nvidia con su modelo FE) todas tenían coil whine en diferente medida pero apreciable y molesto (depende de la tolerancia y sensibilidad del usuario) sin duda alguna. Finalmente, tras ver que no aprovechaba el fantástico rendimiento de esta gama, me fui a una 4080 MSI Suprim X que sí se adapta al resto de mi equipo y tiene cero coil whine, ni un pequeño ruidito, nada en absoluto, silencio total incluso de los ventiladores cuando raramente se activan. No sé si habré tenido suerte o será algo más extendido, tampoco es que haya muchos más compradores para comparar...

Que mala suerte compi, yo tengo 2 4090 FE y cero coil.
chrispro escribió:No sabia que habia tanto ecologista por aqui pendiente del consumo xD

Yo intentando llegar a los 600w como sea.. 570 es mi record..

🤣


No te enteras

Uno de los motivos para bajar el consumo es la brecha de los 850W que la mayoria tenemos fuentes de estas o tener que comprar otra mas grande (+200€)

Sin ir mas lejos tu caso mismo, con un undervolt correcto tendrías un 3% menos de rendimiento y 120-130w menos, hubieras podido mantener la de 850W que tenias si tener que gastar todavía mas pasta en una fuente nueva, pero bueno ya has dejado claro en muchas ocasiones que a ti te gusta tirar el dinero, nada que objetar.
Hola necesito saber si alguien tiene montada alguna 4090 en placas bases de Asus, he leído que Asus tiene algunos problemillas de compatibilidad con el pcie 4.
Tengo una Asus strix b550 f y quería montar una 4090 fe cuándo haya stock y me gustaría saber si alguien tiene este combo si le va bien.
Saludos
yosu888 escribió:Hola necesito saber si alguien tiene montada alguna 4090 en placas bases de Asus, he leído que Asus tiene algunos problemillas de compatibilidad con el pcie 4.
Tengo una Asus strix b550 f y quería montar una 4090 fe cuándo haya stock y me gustaría saber si alguien tiene este combo si le va bien.
Saludos

Yo tengo la Asus que ves en mi firma y cero problemas.
ditifet escribió:
chrispro escribió:No sabia que habia tanto ecologista por aqui pendiente del consumo xD

Yo intentando llegar a los 600w como sea.. 570 es mi record..

🤣


No te enteras

Uno de los motivos para bajar el consumo es la brecha de los 850W que la mayoria tenemos fuentes de estas o tener que comprar otra mas grande (+200€)

Sin ir mas lejos tu caso mismo, con un undervolt correcto tendrías un 3% menos de rendimiento y 120-130w menos, hubieras podido mantener la de 850W que tenias si tener que gastar todavía mas pasta en una fuente nueva, pero bueno ya has dejado claro en muchas ocasiones que a ti te gusta tirar el dinero, nada que objetar.


La verda es q tengo billete no te voy a engañar. 🤣

Una 4090 de 2000 eurillos con una fuente de 850 ?? No gracias!! Y bajarle rendimiento pa que no pete el sistema?? No gracias!!!

Yo entiendo que un tieso lo haga… pero es que no van de la mano tieso y 4090
yosu888 escribió:Hola necesito saber si alguien tiene montada alguna 4090 en placas bases de Asus, he leído que Asus tiene algunos problemillas de compatibilidad con el pcie 4.
Tengo una Asus strix b550 f y quería montar una 4090 fe cuándo haya stock y me gustaría saber si alguien tiene este combo si le va bien.
Saludos

Yo tengo una Asus Tuf gaming X570 y la 4090 FE va perfecta.

Eso si, cuando la puse en vertical con un riser se bloqueaba el pc, tuve que comprar otro cable y se soluciono, compre el riser de Lian li
yosu888 escribió:Hola necesito saber si alguien tiene montada alguna 4090 en placas bases de Asus, he leído que Asus tiene algunos problemillas de compatibilidad con el pcie 4.
Tengo una Asus strix b550 f y quería montar una 4090 fe cuándo haya stock y me gustaría saber si alguien tiene este combo si le va bien.
Saludos


Cero problemas.

Suprim X 4090, Asus Tuf x570, ryzen 5900x@4600Mhz, PSU Rm1000x de Corsair.
@chrispro conozco a uno que tuvo que dejar de comer para ahorrar para la gráfica y al final invirtió el dinero en un coche de 2500€.
Cada uno como puede.
chrispro escribió:
ditifet escribió:
chrispro escribió:No sabia que habia tanto ecologista por aqui pendiente del consumo xD

Yo intentando llegar a los 600w como sea.. 570 es mi record..

🤣


No te enteras

Uno de los motivos para bajar el consumo es la brecha de los 850W que la mayoria tenemos fuentes de estas o tener que comprar otra mas grande (+200€)

Sin ir mas lejos tu caso mismo, con un undervolt correcto tendrías un 3% menos de rendimiento y 120-130w menos, hubieras podido mantener la de 850W que tenias si tener que gastar todavía mas pasta en una fuente nueva, pero bueno ya has dejado claro en muchas ocasiones que a ti te gusta tirar el dinero, nada que objetar.


La verda es q tengo billete no te voy a engañar. 🤣

Una 4090 de 2000 eurillos con una fuente de 850 ?? No gracias!! Y bajarle rendimiento pa que no pete el sistema?? No gracias!!!

Yo entiendo que un tieso lo haga… pero es que no van de la mano tieso y 4090


Por qué nos cuentas tú vida?
chrispro escribió:
ditifet escribió:
chrispro escribió:No sabia que habia tanto ecologista por aqui pendiente del consumo xD

Yo intentando llegar a los 600w como sea.. 570 es mi record..

🤣


No te enteras

Uno de los motivos para bajar el consumo es la brecha de los 850W que la mayoria tenemos fuentes de estas o tener que comprar otra mas grande (+200€)

Sin ir mas lejos tu caso mismo, con un undervolt correcto tendrías un 3% menos de rendimiento y 120-130w menos, hubieras podido mantener la de 850W que tenias si tener que gastar todavía mas pasta en una fuente nueva, pero bueno ya has dejado claro en muchas ocasiones que a ti te gusta tirar el dinero, nada que objetar.


La verda es q tengo billete no te voy a engañar. 🤣

Una 4090 de 2000 eurillos con una fuente de 850 ?? No gracias!! Y bajarle rendimiento pa que no pete el sistema?? No gracias!!!

Yo entiendo que un tieso lo haga… pero es que no van de la mano tieso y 4090

Vaya comentario más vergonzoso. [facepalm]
Demasiado cringe [reojillo]
Por cierto, lo de los cables quemados, desde que el de GamerNexus dijo que era cosa de los usuarios mayoritariamente, no se ha vuelto a oir o ver nuevos casos, ¿no?
Es que es curioso esto de la histeria colectiva. Aparecen un puñado de casos, 50 o así recogieron los de reddit en dos semanas, todo el mundo asustado y unos desenchufando sus gráficas, otros comprando cables (aunque hubo gente que estaba más que tranquila con el tema). Y tras comentarse el posible problema... Nada más.
¿Ha aprendido la gente a conectarlos?
No sé, con las explicaciones que dieron me parece raro que no salgan más casos.
Lo único que ahora la gente que lo sufra, si es que hay, igual le da vergüenza escribir... Pero parece raro que ya no se de más ese problema.
Además teniendo en cuenta que los que las compraron son los más entusiastas (y que tienen dinero) con lo que se supone que deberían estar más versados en conectar cosas, si les da por comprar regularmente lo último.
Chaquetero está baneado por "troll"
hh1 escribió:
neox3 escribió:
KailKatarn escribió:

Eso que preguntas del 7600X o 13600K son preguntas fáciles, más que nada porque te van a dar un rendimiento muy similar a un 13900K en el 95% de los títulos, con frametimes muy similares. Ahora bien, si veo a un usuario ponerse un 13900K con una 4090 pues claro que le voy a decir que sabe lo que se hace, porque en cualquier situación va a poder tener los mejores fps mínimos y frametime en cualquier juego, inclusive en esos que son capaces de usar 8 cores / 16 hilos o más. Que son muy pocos hoy por hoy? sin duda, pero para ese tipo de usuario ya da igual que llueva o truene que está preparado.

Si al final todo se reduce al IPC. Un 13600K lo va a tener muy similar al 13900K salvo en esos títulos que conforman el 5%. Luego ya es cuestión de cada uno si prefiere dejarse más o menos, pero vamos, si te has dejado 2000 pavazos en una gráfica es porque eres un usuario exigente y quieres tener el mejor resultado pase lo que pase. Yo personalmente no me dejaría esos 2000 pavazos para que el día de mañana el título que te guste, o uno que quieras disfrutar justo te de por culo. Por eso una jugada inteligente es el 13700K, que te ofrece el mismo número de núcleos Performance y no te van a pillar tampoco por ahí.

Lo que sí tiene gracia es que comentes cosas como "es que hay que fiarse de uno que dice cosas por un foro" y luego bien que te fías y le das thanks a la gente que menciona que con cualquier micro se puede jugar a 4K o llevar a buen puerto una 4090. No se puede estar en misa y replicando a la vez.


el 13900k solo es mejor si usas todos los cores... pero si coges y lo limitas a 6 cores 12 hilos 13600k vs 13900k, están igualados.... porque la base es el mismo procesador

para muestra, un botón, mi 13600k con los ecores desactivados para no pasar así de 80 grados usando todos los Pcores e hilos:

Imagen

Imagen

Y se puede apretar más, lo he llegado a tener a 5750mhz con el BLCK A 101 pero la ram me hacia cosas raras... y también lo he tenido con a mayores solo 2 ecores activos, pero los he acabado quitando porque windows (o el procesador) con adobe after effects manda la tarea de codificar un video a los ecores en vez de a los pcores, y estamos hablando de una diferencia de tiempo en un video de 25 minutos, de 49 minutos de codificación con 2 pcores VS 1:30min con 2 ecores...

Por comparar, mi ex 5800x hacia en monocore, 640 puntos...

Ahí es a dónde voy.Que al final, lo importante es el IPC ,quitando 3 juegos puntuales que sí puedan sacar un poco más a esos núcelos o hilos extra.


Eso es mentira directamente. Eso es lo que se decía erróneamente hace 15 años.

Lo que más importa de un procesador para juegos son las latencias y la cantidad de caché, el IPC importa lo mismo que el multihilo, mucho menos.

Un 13900k siempre va a rendir mucho más que un 13600k siempre que el juego pida CPU porque tiene mucha más caché compartida. Y da igual que deshabilites núcleos en la BIOS, la caché sigue estando ahí.

Hace un tiempo, cuando hardware unboxed no daba pena, hicieron un vídeo demostrando esto con un 10600k y un 10900k. El último rendía mucho más que el primero con cuatro núcleos desactivados en BIOS.

Por eso el 11900k rindió bastante menos que el 10900k, porque tiene 4 MB de caché menos y encima peores latencias para aumentar el IPC.

Y respecto al enfermo de paguita que se pasa por aquí todos los días a fardar y a llamar pobres a los demás no le deis más coba.
BennBeckman escribió:
chrispro escribió:
ditifet escribió:
No te enteras

Uno de los motivos para bajar el consumo es la brecha de los 850W que la mayoria tenemos fuentes de estas o tener que comprar otra mas grande (+200€)

Sin ir mas lejos tu caso mismo, con un undervolt correcto tendrías un 3% menos de rendimiento y 120-130w menos, hubieras podido mantener la de 850W que tenias si tener que gastar todavía mas pasta en una fuente nueva, pero bueno ya has dejado claro en muchas ocasiones que a ti te gusta tirar el dinero, nada que objetar.


La verda es q tengo billete no te voy a engañar. 🤣

Una 4090 de 2000 eurillos con una fuente de 850 ?? No gracias!! Y bajarle rendimiento pa que no pete el sistema?? No gracias!!!

Yo entiendo que un tieso lo haga… pero es que no van de la mano tieso y 4090

Vaya comentario más vergonzoso. [facepalm]
Demasiado cringe [reojillo]


Si que lo da!! Jajajajaja
Bueno hoy a salido en coolmed la 4090 kfa2 , la he pillado y me llega mañana, a ver quetal funciona.
Espero que no me de problemas con mi placa base la b550 strix f.
BorjaGarcia escribió:Por cierto, lo de los cables quemados, desde que el de GamerNexus dijo que era cosa de los usuarios mayoritariamente, no se ha vuelto a oir o ver nuevos casos, ¿no?
Es que es curioso esto de la histeria colectiva. Aparecen un puñado de casos, 50 o así recogieron los de reddit en dos semanas, todo el mundo asustado y unos desenchufando sus gráficas, otros comprando cables (aunque hubo gente que estaba más que tranquila con el tema). Y tras comentarse el posible problema... Nada más.
¿Ha aprendido la gente a conectarlos?
No sé, con las explicaciones que dieron me parece raro que no salgan más casos.
Lo único que ahora la gente que lo sufra, si es que hay, igual le da vergüenza escribir... Pero parece raro que ya no se de más ese problema.
Además teniendo en cuenta que los que las compraron son los más entusiastas (y que tienen dinero) con lo que se supone que deberían estar más versados en conectar cosas, si les da por comprar regularmente lo último.


Y digo yo, alguien conoce de primera mano alguien , conocido , amigo de etc que sufriera el caso?? en foros Españoles no se ha dado el problema parece ser....

Como bien dices es muy raro, Nvidia se pronunció y desde ese momento 0 casos....
leonigsxr1000 escribió:
BorjaGarcia escribió:Por cierto, lo de los cables quemados, desde que el de GamerNexus dijo que era cosa de los usuarios mayoritariamente, no se ha vuelto a oir o ver nuevos casos, ¿no?
Es que es curioso esto de la histeria colectiva. Aparecen un puñado de casos, 50 o así recogieron los de reddit en dos semanas, todo el mundo asustado y unos desenchufando sus gráficas, otros comprando cables (aunque hubo gente que estaba más que tranquila con el tema). Y tras comentarse el posible problema... Nada más.
¿Ha aprendido la gente a conectarlos?
No sé, con las explicaciones que dieron me parece raro que no salgan más casos.
Lo único que ahora la gente que lo sufra, si es que hay, igual le da vergüenza escribir... Pero parece raro que ya no se de más ese problema.
Además teniendo en cuenta que los que las compraron son los más entusiastas (y que tienen dinero) con lo que se supone que deberían estar más versados en conectar cosas, si les da por comprar regularmente lo último.


Y digo yo, alguien conoce de primera mano alguien , conocido , amigo de etc que sufriera el caso?? en foros Españoles no se ha dado el problema parece ser....

Como bien dices es muy raro, Nvidia se pronunció y desde ese momento 0 casos....


Es un expediente X además que en reddit no hayan salido más casos. [mad]
Dios me está matando tener la caja abierta, cuando coño cablemod nos dirá que ya está disponible el conector de 90ª...
Yo tengo el cable un poco doblado y la caja cerrada y de momento cero problemas.
@Jamakukeich la verdad que lo he etsado pensando, pero que cable tienes doblado? el que traía de nvidia?, estoy por pedir el cable mientra sviene el conector de 90º porque el de nvidia no me atrevo aa moverlo y lo tengo recto respecto a la entrada de la conexión al menos 4 cm...

Estoy por desconectarlo a ver si se ha fundido, que le he metido varios días caña y tengo curiosidad de saber si tengo el conector igual XD
No te preocupes que si se funde huele, de todas formas magicamente ha desparecido el problema, nadie mas se le ha quemado. Al final va a resultar que realmente los que posteaban el problema no tenian ni pajolera de conectar el cable.

El codo de Cablemod sale sobre la primera - segunda semana de diciembre
los mas preocupados por los cables quemados curiosamente no tenian la 4090
(mensaje borrado)
@Lince_SPAIN tu eres como yo me parece a mi, nos hemos gastao un pastizal pero es un producto con el que estamos muy contentos, si el dia de mañana la bajan a 1000,€ pues si nos dolera, pero vamos a seguir felices por que tenemos lo que queriamos y llevamos disfrutandolo desde que hemos podido hacerlo, no nos hemos reprimido, de nada.
Un saludo de tu hermano de grafica.
Nvidia hoy dia es un desembolso de dinero innecesario y desfasado punto [poraki]
josep345 escribió:Nvidia hoy dia es un desembolso de dinero innecesario y desfasado punto [poraki]

Y te quedas tan pancho XD

El dia que tardes 6-7 horas en sacar un render por cpu de un modelo en 3D pesado y gracias a nvidia optix tardes menos de 1 minuto me avisas. Y no, actualmente no se puede hacer eso con AMD
14371 respuestas