neox3 escribió:KailKatarn escribió:Rvilla87 escribió:Está claro que nunca te puedes equivocar, a nivel calidad, si te vas a la CPU mas potente, pero ese no era el motivo de mi duda. Creo que nadie duda en si un 13900k (720€) es mejor que un 7600/13600 (320€). La duda es si vale la pena gastarte mas del doble de dinero en lo mas top si quizás con algo mucho mas barato a nivel de rendimiento de juegos solo pierdes unos pocos fps. Sí, comentas lo del frametime que es muy importante, pero aún así me gustaría ver el frametime con CPUs menos potente a ver cómo se comportan.
Y esa duda, como llevo diciendo varios mensajes, no veo ninguna buena comparativa que me la resuelva. Lo que veo es que las comparativas de CPUs las han probado con la 3090 (ya desfasada con la 4090) y las comparativas de 4090 solo prueban con procesadores top (13900k por ejemplo) o con otros procesadores menos potentes pero ignorando la 4k o poniendo juegos en 4k pero que van a muchos fps (bajando gráficos, siendo juegos multiplayer competitivos, etc).
Es que sin información contrastada que revisar ya es un tema de creerse lo que diga alguien de un foro sin saber si lo que dice tiene mas o menos sentido y apostar tu dinero en su afirmación (sin demostrarlo). Por ejemplo en tu caso así por encima casi que solo recuerdo decirle a un forero que lo había hecho bien en la elección de la CPU con una 4090 cuando eligió una 13900k. Claro, yendo a lo mas pepino es difícil equivocarse. Mi duda va más allá, y es saber qué hace una CPU con menor potencia (por ejemplo 7600X o 13600k) tan poco capaz como para ser (o no) para para una 4090 con juegos a 4k: un mínimo de cores potentes, los de consumo, tener un mínimo de threads o cores, unos mhz mínimos, etc.
Sin entrar a ese detalle, creo que esta duda me la resolverán los análisis de futuras CPUs que corran con una 4090... por el momento como digo no he sido capaz de encontrar info fiable.
Eso que preguntas del 7600X o 13600K son preguntas fáciles, más que nada porque te van a dar un rendimiento muy similar a un 13900K en el 95% de los títulos, con frametimes muy similares. Ahora bien, si veo a un usuario ponerse un 13900K con una 4090 pues claro que le voy a decir que sabe lo que se hace, porque en cualquier situación va a poder tener los mejores fps mínimos y frametime en cualquier juego, inclusive en esos que son capaces de usar 8 cores / 16 hilos o más. Que son muy pocos hoy por hoy? sin duda, pero para ese tipo de usuario ya da igual que llueva o truene que está preparado.
Si al final todo se reduce al IPC. Un 13600K lo va a tener muy similar al 13900K salvo en esos títulos que conforman el 5%. Luego ya es cuestión de cada uno si prefiere dejarse más o menos, pero vamos, si te has dejado 2000 pavazos en una gráfica es porque eres un usuario exigente y quieres tener el mejor resultado pase lo que pase. Yo personalmente no me dejaría esos 2000 pavazos para que el día de mañana el título que te guste, o uno que quieras disfrutar justo te de por culo. Por eso una jugada inteligente es el 13700K, que te ofrece el mismo número de núcleos Performance y no te van a pillar tampoco por ahí.
Lo que sí tiene gracia es que comentes cosas como "es que hay que fiarse de uno que dice cosas por un foro" y luego bien que te fías y le das thanks a la gente que menciona que con cualquier micro se puede jugar a 4K o llevar a buen puerto una 4090. No se puede estar en misa y replicando a la vez.
el 13900k solo es mejor si usas todos los cores... pero si coges y lo limitas a 6 cores 12 hilos 13600k vs 13900k, están igualados.... porque la base es el mismo procesador
para muestra, un botón, mi 13600k con los ecores desactivados para no pasar así de 80 grados usando todos los Pcores e hilos:
Y se puede apretar más, lo he llegado a tener a 5750mhz con el BLCK A 101 pero la ram me hacia cosas raras... y también lo he tenido con a mayores solo 2 ecores activos, pero los he acabado quitando porque windows (o el procesador) con adobe after effects manda la tarea de codificar un video a los ecores en vez de a los pcores, y estamos hablando de una diferencia de tiempo en un video de 25 minutos, de 49 minutos de codificación con 2 pcores VS 1:30min con 2 ecores...
Por comparar, mi ex 5800x hacia en monocore, 640 puntos...
neox3 escribió:el 13900k solo es mejor si usas todos los cores... pero si coges y lo limitas a 6 cores 12 hilos 13600k vs 13900k, están igualados.... porque la base es el mismo procesador
Y se puede apretar más, lo he llegado a tener a 5750mhz con el BLCK A 101 pero la ram me hacia cosas raras... y también lo he tenido con a mayores solo 2 ecores activos, pero los he acabado quitando porque windows (o el procesador) con adobe after effects manda la tarea de codificar un video a los ecores en vez de a los pcores, y estamos hablando de una diferencia de tiempo en un video de 25 minutos, de 49 minutos de codificación con 2 pcores VS 1:30min con 2 ecores...
Por comparar, mi ex 5800x hacia en monocore, 640 puntos...
medearu1986 escribió:
Eso es lo que me ha resultado gracioso al recibir la 4090, hay gente que hace memes con que no cabe en la caja con que se queman o consumen mucho... etc etc etc, y resulta que hay gráficas mas grandes en el mercado y de nuestra amiga AMD, pero si amiguitos ahora viene AMD con la 7950XTX más pequeña menor consumo y por 1000 dólares a salvar la situación...
hh1 escribió:Y cuando veamos el temaño de la 7900, podremos hacernos idea de lo que será de grande la otra.
Serán tochas ,eso seguro.
silenius escribió:hh1 escribió:Y cuando veamos el temaño de la 7900, podremos hacernos idea de lo que será de grande la otra.
Serán tochas ,eso seguro.
De las FE o de las custom? Las custom son grandes, solo hay que ver la powercolor (la TUF también lo parece, la sapphire poco se ha visto). Las FE son como las Fe de las 6000
_c_ escribió:Ayer instalé este conector por 21€:
https://amzn.eu/d/6rtlIwq
Super recomendable. Mucho mejor de lo que esperaba.
Me ha dado mucha mas sensación de calidad de lo que me pareció por las fotos
Los cables son finos pero muy recios, parecen alambre al manipularlos. Eso te permite guiarlos con facilidad. Además,trae unas guias de plástico para ordenarlos.
El crimpado de los cables al conector es sólido no hay juego ninguno y este encaja mejor que el adaptador.
Puedes doblarlo mucho mejor y mas cerca del conector que el adaptador de nvidia por lo que no hace falta tanto espacio de cara a poner la tapa.
hh1 escribió:silenius escribió:hh1 escribió:Y cuando veamos el temaño de la 7900, podremos hacernos idea de lo que será de grande la otra.
Serán tochas ,eso seguro.
De las FE o de las custom? Las custom son grandes, solo hay que ver la powercolor (la TUF también lo parece, la sapphire poco se ha visto). Las FE son como las Fe de las 6000
Pues si las FE son grandes ,las custom imagino que lo serán igual o más.
La 4090 FE ,lo que tienes es que es muy gruesa,más que larga.
Impresiona ver que ocupa tantos slots.
_c_ escribió:@chrispro
El que trae la tarjeta es de nvidia y ya te digo que tiene peores acabados y ajustes.
El cable este está muy bien rematado por todos los sitios. Si no, lo hubiera devuelto.
chrispro escribió:en ningun momento critico quien quiere jugar con la grafica echandole diesel, ni quien quiere perder frames por unos graditos ni tampoco quien quiere bajar unos watios el consumo …
Por mi que hagan lo que quieran, todo eso no le quita credibilidad a mi frase:
No sabia que habia tanto ecologista por aqui pendiente del consumo
KailKatarn escribió:Si al final todo se reduce al IPC. Un 13600K lo va a tener muy similar al 13900K salvo en esos títulos que conforman el 5%. Luego ya es cuestión de cada uno si prefiere dejarse más o menos, pero vamos, si te has dejado 2000 pavazos en una gráfica es porque eres un usuario exigente y quieres tener el mejor resultado pase lo que pase. Yo personalmente no me dejaría esos 2000 pavazos para que el día de mañana el título que te guste, o uno que quieras disfrutar justo te de por culo. Por eso una jugada inteligente es el 13700K, que te ofrece el mismo número de núcleos Performance y no te van a pillar tampoco por ahí.
KailKatarn escribió:Lo que sí tiene gracia es que comentes cosas como "es que hay que fiarse de uno que dice cosas por un foro" y luego bien que te fías y le das thanks a la gente que menciona que con cualquier micro se puede jugar a 4K o llevar a buen puerto una 4090. No se puede estar en misa y replicando a la vez, porque eso identifica que lo que te gusta es que se hable de "tu película" o la que preferirías ver.
anne kinoko escribió:@leonigsxr1000
Leoni, tu que controlas el tema TV con tu canal de Youtube, hay previsión de alguna oled 8k de 55 pulgadas , a poder ser LG, u otras con gsync compatible ,para conectar la 4090? Con la bestia esta de GPU, me pica probar esa resolución. No OLED no party
Por cierto, hoy me llegó el cable de 600w de corsair, ya pondré impresiones.
Salu2
Kavezacomeback escribió:https://www.coolmod.com/inno3d-geforce-rtx-4080-x3-16gb-gddr6x/?tduid=7570ffaec6bb7ca8e452892b7407392a
4080 ya está listada en tiendas.
Necrofero escribió:Kavezacomeback escribió:https://www.coolmod.com/inno3d-geforce-rtx-4080-x3-16gb-gddr6x/?tduid=7570ffaec6bb7ca8e452892b7407392a
4080 ya está listada en tiendas.
Y tal dia como hoy puedo decir, que alli siguen xD
KKnot escribió:Estoy mirando el tema del CoilWhine en las 4090...hay algún modelo que tenga mas posibilidades de tenerlo o es una lotería?
silenius escribió:hh1 escribió:silenius escribió:De las FE o de las custom? Las custom son grandes, solo hay que ver la powercolor (la TUF también lo parece, la sapphire poco se ha visto). Las FE son como las Fe de las 6000
Pues si las FE son grandes ,las custom imagino que lo serán igual o más.
La 4090 FE ,lo que tienes es que es muy gruesa,más que larga.
Impresiona ver que ocupa tantos slots.
Grandes grandes no son mucho, antes he puesto las de la FE de la 6950xt y es mas pequeña que la 4090fe. Las de 7900xtx son las mismas solo que un pelin mas larga, 287mm
Lince_SPAIN escribió:KKnot escribió:Estoy mirando el tema del CoilWhine en las 4090...hay algún modelo que tenga mas posibilidades de tenerlo o es una lotería?
En mi limitada experiencia con tres unidades RTX 4090 de diferentes fabricantes (Gigabyte, Asus y la propia Nvidia con su modelo FE) todas tenían coil whine en diferente medida pero apreciable y molesto (depende de la tolerancia y sensibilidad del usuario) sin duda alguna. Finalmente, tras ver que no aprovechaba el fantástico rendimiento de esta gama, me fui a una 4080 MSI Suprim X que sí se adapta al resto de mi equipo y tiene cero coil whine, ni un pequeño ruidito, nada en absoluto, silencio total incluso de los ventiladores cuando raramente se activan. No sé si habré tenido suerte o será algo más extendido, tampoco es que haya muchos más compradores para comparar...
Lince_SPAIN escribió:KKnot escribió:Estoy mirando el tema del CoilWhine en las 4090...hay algún modelo que tenga mas posibilidades de tenerlo o es una lotería?
En mi limitada experiencia con tres unidades RTX 4090 de diferentes fabricantes (Gigabyte, Asus y la propia Nvidia con su modelo FE) todas tenían coil whine en diferente medida pero apreciable y molesto (depende de la tolerancia y sensibilidad del usuario) sin duda alguna. Finalmente, tras ver que no aprovechaba el fantástico rendimiento de esta gama, me fui a una 4080 MSI Suprim X que sí se adapta al resto de mi equipo y tiene cero coil whine, ni un pequeño ruidito, nada en absoluto, silencio total incluso de los ventiladores cuando raramente se activan. No sé si habré tenido suerte o será algo más extendido, tampoco es que haya muchos más compradores para comparar...
chrispro escribió:No sabia que habia tanto ecologista por aqui pendiente del consumo xD
Yo intentando llegar a los 600w como sea.. 570 es mi record..
🤣
yosu888 escribió:Hola necesito saber si alguien tiene montada alguna 4090 en placas bases de Asus, he leído que Asus tiene algunos problemillas de compatibilidad con el pcie 4.
Tengo una Asus strix b550 f y quería montar una 4090 fe cuándo haya stock y me gustaría saber si alguien tiene este combo si le va bien.
Saludos
ditifet escribió:chrispro escribió:No sabia que habia tanto ecologista por aqui pendiente del consumo xD
Yo intentando llegar a los 600w como sea.. 570 es mi record..
🤣
No te enteras
Uno de los motivos para bajar el consumo es la brecha de los 850W que la mayoria tenemos fuentes de estas o tener que comprar otra mas grande (+200€)
Sin ir mas lejos tu caso mismo, con un undervolt correcto tendrías un 3% menos de rendimiento y 120-130w menos, hubieras podido mantener la de 850W que tenias si tener que gastar todavía mas pasta en una fuente nueva, pero bueno ya has dejado claro en muchas ocasiones que a ti te gusta tirar el dinero, nada que objetar.
yosu888 escribió:Hola necesito saber si alguien tiene montada alguna 4090 en placas bases de Asus, he leído que Asus tiene algunos problemillas de compatibilidad con el pcie 4.
Tengo una Asus strix b550 f y quería montar una 4090 fe cuándo haya stock y me gustaría saber si alguien tiene este combo si le va bien.
Saludos
yosu888 escribió:Hola necesito saber si alguien tiene montada alguna 4090 en placas bases de Asus, he leído que Asus tiene algunos problemillas de compatibilidad con el pcie 4.
Tengo una Asus strix b550 f y quería montar una 4090 fe cuándo haya stock y me gustaría saber si alguien tiene este combo si le va bien.
Saludos
chrispro escribió:ditifet escribió:chrispro escribió:No sabia que habia tanto ecologista por aqui pendiente del consumo xD
Yo intentando llegar a los 600w como sea.. 570 es mi record..
🤣
No te enteras
Uno de los motivos para bajar el consumo es la brecha de los 850W que la mayoria tenemos fuentes de estas o tener que comprar otra mas grande (+200€)
Sin ir mas lejos tu caso mismo, con un undervolt correcto tendrías un 3% menos de rendimiento y 120-130w menos, hubieras podido mantener la de 850W que tenias si tener que gastar todavía mas pasta en una fuente nueva, pero bueno ya has dejado claro en muchas ocasiones que a ti te gusta tirar el dinero, nada que objetar.
La verda es q tengo billete no te voy a engañar. 🤣
Una 4090 de 2000 eurillos con una fuente de 850 ?? No gracias!! Y bajarle rendimiento pa que no pete el sistema?? No gracias!!!
Yo entiendo que un tieso lo haga… pero es que no van de la mano tieso y 4090
chrispro escribió:ditifet escribió:chrispro escribió:No sabia que habia tanto ecologista por aqui pendiente del consumo xD
Yo intentando llegar a los 600w como sea.. 570 es mi record..
🤣
No te enteras
Uno de los motivos para bajar el consumo es la brecha de los 850W que la mayoria tenemos fuentes de estas o tener que comprar otra mas grande (+200€)
Sin ir mas lejos tu caso mismo, con un undervolt correcto tendrías un 3% menos de rendimiento y 120-130w menos, hubieras podido mantener la de 850W que tenias si tener que gastar todavía mas pasta en una fuente nueva, pero bueno ya has dejado claro en muchas ocasiones que a ti te gusta tirar el dinero, nada que objetar.
La verda es q tengo billete no te voy a engañar. 🤣
Una 4090 de 2000 eurillos con una fuente de 850 ?? No gracias!! Y bajarle rendimiento pa que no pete el sistema?? No gracias!!!
Yo entiendo que un tieso lo haga… pero es que no van de la mano tieso y 4090
hh1 escribió:neox3 escribió:KailKatarn escribió:
Eso que preguntas del 7600X o 13600K son preguntas fáciles, más que nada porque te van a dar un rendimiento muy similar a un 13900K en el 95% de los títulos, con frametimes muy similares. Ahora bien, si veo a un usuario ponerse un 13900K con una 4090 pues claro que le voy a decir que sabe lo que se hace, porque en cualquier situación va a poder tener los mejores fps mínimos y frametime en cualquier juego, inclusive en esos que son capaces de usar 8 cores / 16 hilos o más. Que son muy pocos hoy por hoy? sin duda, pero para ese tipo de usuario ya da igual que llueva o truene que está preparado.
Si al final todo se reduce al IPC. Un 13600K lo va a tener muy similar al 13900K salvo en esos títulos que conforman el 5%. Luego ya es cuestión de cada uno si prefiere dejarse más o menos, pero vamos, si te has dejado 2000 pavazos en una gráfica es porque eres un usuario exigente y quieres tener el mejor resultado pase lo que pase. Yo personalmente no me dejaría esos 2000 pavazos para que el día de mañana el título que te guste, o uno que quieras disfrutar justo te de por culo. Por eso una jugada inteligente es el 13700K, que te ofrece el mismo número de núcleos Performance y no te van a pillar tampoco por ahí.
Lo que sí tiene gracia es que comentes cosas como "es que hay que fiarse de uno que dice cosas por un foro" y luego bien que te fías y le das thanks a la gente que menciona que con cualquier micro se puede jugar a 4K o llevar a buen puerto una 4090. No se puede estar en misa y replicando a la vez.
el 13900k solo es mejor si usas todos los cores... pero si coges y lo limitas a 6 cores 12 hilos 13600k vs 13900k, están igualados.... porque la base es el mismo procesador
para muestra, un botón, mi 13600k con los ecores desactivados para no pasar así de 80 grados usando todos los Pcores e hilos:
Y se puede apretar más, lo he llegado a tener a 5750mhz con el BLCK A 101 pero la ram me hacia cosas raras... y también lo he tenido con a mayores solo 2 ecores activos, pero los he acabado quitando porque windows (o el procesador) con adobe after effects manda la tarea de codificar un video a los ecores en vez de a los pcores, y estamos hablando de una diferencia de tiempo en un video de 25 minutos, de 49 minutos de codificación con 2 pcores VS 1:30min con 2 ecores...
Por comparar, mi ex 5800x hacia en monocore, 640 puntos...
Ahí es a dónde voy.Que al final, lo importante es el IPC ,quitando 3 juegos puntuales que sí puedan sacar un poco más a esos núcelos o hilos extra.
BennBeckman escribió:chrispro escribió:ditifet escribió:
No te enteras
Uno de los motivos para bajar el consumo es la brecha de los 850W que la mayoria tenemos fuentes de estas o tener que comprar otra mas grande (+200€)
Sin ir mas lejos tu caso mismo, con un undervolt correcto tendrías un 3% menos de rendimiento y 120-130w menos, hubieras podido mantener la de 850W que tenias si tener que gastar todavía mas pasta en una fuente nueva, pero bueno ya has dejado claro en muchas ocasiones que a ti te gusta tirar el dinero, nada que objetar.
La verda es q tengo billete no te voy a engañar. 🤣
Una 4090 de 2000 eurillos con una fuente de 850 ?? No gracias!! Y bajarle rendimiento pa que no pete el sistema?? No gracias!!!
Yo entiendo que un tieso lo haga… pero es que no van de la mano tieso y 4090
Vaya comentario más vergonzoso.
Demasiado cringe
BorjaGarcia escribió:Por cierto, lo de los cables quemados, desde que el de GamerNexus dijo que era cosa de los usuarios mayoritariamente, no se ha vuelto a oir o ver nuevos casos, ¿no?
Es que es curioso esto de la histeria colectiva. Aparecen un puñado de casos, 50 o así recogieron los de reddit en dos semanas, todo el mundo asustado y unos desenchufando sus gráficas, otros comprando cables (aunque hubo gente que estaba más que tranquila con el tema). Y tras comentarse el posible problema... Nada más.
¿Ha aprendido la gente a conectarlos?
No sé, con las explicaciones que dieron me parece raro que no salgan más casos.
Lo único que ahora la gente que lo sufra, si es que hay, igual le da vergüenza escribir... Pero parece raro que ya no se de más ese problema.
Además teniendo en cuenta que los que las compraron son los más entusiastas (y que tienen dinero) con lo que se supone que deberían estar más versados en conectar cosas, si les da por comprar regularmente lo último.
leonigsxr1000 escribió:BorjaGarcia escribió:Por cierto, lo de los cables quemados, desde que el de GamerNexus dijo que era cosa de los usuarios mayoritariamente, no se ha vuelto a oir o ver nuevos casos, ¿no?
Es que es curioso esto de la histeria colectiva. Aparecen un puñado de casos, 50 o así recogieron los de reddit en dos semanas, todo el mundo asustado y unos desenchufando sus gráficas, otros comprando cables (aunque hubo gente que estaba más que tranquila con el tema). Y tras comentarse el posible problema... Nada más.
¿Ha aprendido la gente a conectarlos?
No sé, con las explicaciones que dieron me parece raro que no salgan más casos.
Lo único que ahora la gente que lo sufra, si es que hay, igual le da vergüenza escribir... Pero parece raro que ya no se de más ese problema.
Además teniendo en cuenta que los que las compraron son los más entusiastas (y que tienen dinero) con lo que se supone que deberían estar más versados en conectar cosas, si les da por comprar regularmente lo último.
Y digo yo, alguien conoce de primera mano alguien , conocido , amigo de etc que sufriera el caso?? en foros Españoles no se ha dado el problema parece ser....
Como bien dices es muy raro, Nvidia se pronunció y desde ese momento 0 casos....
josep345 escribió:Nvidia hoy dia es un desembolso de dinero innecesario y desfasado punto