VanSouls escribió:silenius escribió:VanSouls escribió:Solo un detalle, Titan nunca ha sido una gama Gaming entusiasta, hasta la serie 3000 que las renombraron a X90
ya pero la gente igualmente la compraba como si fuese gama gaming
Para pollagordear, porque hasta la propia NVIDIA la diseñó para otros menesteres
Pero no vayamos a abrir ese melón que cada uno se gaste el dinero como quiera
the_aeon escribió:Este mas que claro que el problema es el conector, en vez de poner 6 cables han puesto 4 pero mas gordos, por estos puede pasar mas corriente y hace que se queme el conector de plástico, en resumidas cuentas mas o menos.
En la 3090 TI pusieron 6 cables y no hubo ningún problema, cagada de Nvidia total.
Yo le tengo hecho undervolt y activo en todos los juegos DLSS, activar DLSS hace que consuma bastante menos.
El dia 14 me llega el adaptador de cablemod, sigo cruzando los dedos hasta que me llegue.
Los que tenéis la 4090 en foro habéis tenido algún problema con esto??
elcapoprods escribió:La cosa es hacer undervolt sin bajar power limit.
chrispro escribió:Yo todos los que le haceis undervolt… le bajais el power limit y todo eso.. esta muy bien.
Jugar asi que seguro no se quema, ahora bien, dentro de año y pico o dos años o tres… necesitareis potencia , seguireis con el power limit acojonado?
Yo creo que esta grafica esta diseñada para trabajar asi, al 100%, si tiene que quemarse mejor ya que en un año y nos pongan pegas, o peor aun, fuera de garantia
jiujinkai escribió:Pero tan malo es bajar power limit sin hacer UV? Es que veo que comentais que luego las gpu se vuelven vagas el día que les quieres dar chicha? Según entiendo lo que hace el power limit es bajar el clock/voltaje, no?
chrispro escribió:Yo todos los que le haceis undervolt… le bajais el power limit y todo eso.. esta muy bien.
Jugar asi que seguro no se quema, ahora bien, dentro de año y pico o dos años o tres… necesitareis potencia , seguireis con el power limit acojonado?
Yo creo que esta grafica esta diseñada para trabajar asi, al 100%, si tiene que quemarse mejor ya que en un año y nos pongan pegas, o peor aun, fuera de garantia
Chaquetero escribió:elcapoprods escribió:La cosa es hacer undervolt sin bajar power limit.
Para nada, estas 4090 rinden menos a menor voltaje. Yo sí le tengo bajado a 1.000v, pero más allá hay una merma grande de rendimiento a igualdad de consumo y frecuencias, y el power limit lo tengo al 65% rindiendome un 5% menos que de stock consumiendo casi 200w menos.
Nvidia ha hecho algo muy raro con el boost esta generación.
uri166 escribió:@hh1 gracias,cada vez tengo más claro que voy a quedarme como estoy.
Lince_SPAIN escribió:Hablando de watios, en una RTX 4080 el nuevo Spider-Man con todo a tope en 1440p 21:9 sin DLSS y 60 fps capados anda entre 65 y 82w de consumo, un mechero, si le quitas el cap se va a 130w máximo capado por el V-Sync y G-Sync a 144fps que sigue siendo un consumo irrisorio teniendo en cuenta el ray tracing a esta tasa de refresco. Ya para rematar con el DLSS3 frame generation se pasa sobrado de los 300fps sin rebasar esos 120-130w, la verdad es que Nvidia sí que se lo han currado con el power efficiency esta generación. Igual el "sobreprecio" te lo ahorras en la factura de la luz.
Chaquetero escribió:@ditifet pero tú tienes una? El uv si se hace siempre se hace correctamente, es tan sencillo como meterte en el afterburner, control+f y setear la curva con el voltaje y frecuencia máximos deseados.
.
KailKatarn escribió:uri166 escribió:@hh1 gracias,cada vez tengo más claro que voy a quedarme como estoy.
Pues yo que tú no agradecería tanto la desinformación cuando puedes perder el 25/30% de la tarjeta gráfica según lo que juegues por usar el procesador inadecuado a 4K con una 4090. Y eso en 5800X vs 12900K, que con un Gen 13 todavía se agrava más la cosa.
4K
1440p mal llamado 2K
1080p
Está muy bien pensar que con tu micro puedes llegar a donde quieras, más a 4K, pero ya va siendo hora de aceptar que lo que manda en un PC Gaming es la CPU, no la GPU. Que a todos nos gustaría gastar lo menos posible, eh? pero cuando te compras una GPU de 2000 pavazos o más mucho me temo que te queda otro pastizal en CPU, PLACA y RAM si quieres aprovecharla.
uri166 escribió:Tienes razón en lo que dices, no se si me has usado de ejemplo o para contestar al otro usuario.
Aver, yo acepto lo del rendimiento, la 4090 la descarté por pasta como decía en otro comentario,no me sobra el dinero.
Lince_SPAIN escribió:Hablando de watios, en una RTX 4080 el nuevo Spider-Man con todo a tope en 1440p 21:9 sin DLSS y 60 fps capados anda entre 65 y 82w de consumo, un mechero, si le quitas el cap se va a 130w máximo capado por el V-Sync y G-Sync a 144fps que sigue siendo un consumo irrisorio teniendo en cuenta el ray tracing a esta tasa de refresco. Ya para rematar con el DLSS3 frame generation se pasa sobrado de los 300fps sin rebasar esos 120-130w, la verdad es que Nvidia sí que se lo han currado con el power efficiency esta generación. Igual el "sobreprecio" te lo ahorras en la factura de la luz.
KailKatarn escribió:uri166 escribió:Tienes razón en lo que dices, no se si me has usado de ejemplo o para contestar al otro usuario.
Aver, yo acepto lo del rendimiento, la 4090 la descarté por pasta como decía en otro comentario,no me sobra el dinero.
No pretendía juzgar tu criterio, sino dejar claro que la CPU es muy importante para gaming y más con una 4090 independientemente de la resolución (inclusive 4K). Por descontado soy consciente de la pasta que está costando el hardware gaming de alta gama hoy por hoy, lo único que pretendía resaltar es que cuando te vas a una gráfica de 2000 pavazos o más, más te vale de acompañarla de una CPU a la altura de las circunstancias. Era eso simplemente.
Un saludo y que disfrutes esa 4080. De hecho con una 4080 no te hará falta tanto micro.
suemrri escribió:Como se portaria la 4080 a 4k? Insuficiente?
Chaquetero escribió:estas 4090 rinden menos a menor voltaje.
KailKatarn escribió:uri166 escribió:@hh1 gracias,cada vez tengo más claro que voy a quedarme como estoy.
Pues yo que tú no agradecería tanto la desinformación cuando puedes perder el 25/30% de la tarjeta gráfica según lo que juegues por usar el procesador inadecuado a 4K con una 4090. Y eso en 5800X vs 12900K, que con un Gen 13 todavía se agrava más la cosa.
4K
1440p mal llamado 2K
1080p
Está muy bien pensar que con tu micro puedes llegar a donde quieras, más a 4K, pero ya va siendo hora de aceptar que lo que manda en un PC Gaming es la CPU, no la GPU. Que a todos nos gustaría gastar lo menos posible, eh? pero cuando te compras una GPU de 2000 pavazos o más mucho me temo que te queda otro pastizal en CPU, PLACA y RAM si quieres aprovecharla.
D0NV1T0 escribió:Lince_SPAIN escribió:Hablando de watios, en una RTX 4080 el nuevo Spider-Man con todo a tope en 1440p 21:9 sin DLSS y 60 fps capados anda entre 65 y 82w de consumo, un mechero, si le quitas el cap se va a 130w máximo capado por el V-Sync y G-Sync a 144fps que sigue siendo un consumo irrisorio teniendo en cuenta el ray tracing a esta tasa de refresco. Ya para rematar con el DLSS3 frame generation se pasa sobrado de los 300fps sin rebasar esos 120-130w, la verdad es que Nvidia sí que se lo han currado con el power efficiency esta generación. Igual el "sobreprecio" te lo ahorras en la factura de la luz.
Por no hablar de lo silenciosa que es, ya que por defecto los ventiladores se activan a 60º y con el PEDAZO de disipador que tiene se mantiene mucho tiempo por debajo de esa temperatura sin encender los ventiladores.
He llegado a estar jugando a warzone y que se tire ratos largos con los ventiladores apagados, es fresquisima, la grafica mas fria que he tenido con diferencia.
Que si, que nos han metido un sablazo pero desde luego que es un producto de calidad.
Lince_SPAIN escribió:D0NV1T0 escribió:Lince_SPAIN escribió:Hablando de watios, en una RTX 4080 el nuevo Spider-Man con todo a tope en 1440p 21:9 sin DLSS y 60 fps capados anda entre 65 y 82w de consumo, un mechero, si le quitas el cap se va a 130w máximo capado por el V-Sync y G-Sync a 144fps que sigue siendo un consumo irrisorio teniendo en cuenta el ray tracing a esta tasa de refresco. Ya para rematar con el DLSS3 frame generation se pasa sobrado de los 300fps sin rebasar esos 120-130w, la verdad es que Nvidia sí que se lo han currado con el power efficiency esta generación. Igual el "sobreprecio" te lo ahorras en la factura de la luz.
Por no hablar de lo silenciosa que es, ya que por defecto los ventiladores se activan a 60º y con el PEDAZO de disipador que tiene se mantiene mucho tiempo por debajo de esa temperatura sin encender los ventiladores.
He llegado a estar jugando a warzone y que se tire ratos largos con los ventiladores apagados, es fresquisima, la grafica mas fria que he tenido con diferencia.
Que si, que nos han metido un sablazo pero desde luego que es un producto de calidad.
Efectivamente, tiene 0 ruido de ventilador y 0 coil whine incluso a +300 fps, impecable construcción y PCB sobrado (por eso me decidí por este modelo), con lo molesto que es el coil whine por pequeño que sea... en esta 4080 Suprim X no hay absolutamente nada, cero ruido, cero quejas de los transistores, es una auténtica maravilla. Vamos te digo que prefiero una 4080 con 0 absoluto de coil whine que una 4090 con él, vale estoy exagerando pero ya me entendéis
Ahora bien, es cierto que si yo jugara a 4K en lugar de 1440p entonces me hubiera comprado la 4090 sí o sí, pero para mi amado monitor 1440p 144Hz LG27GL850, en su momento mítico y ahora ya más del montón pero a mí me encanta, y mi vista de señor de mediana edad pensé que con una 4080 me llegaba... y no es que me llegue, es que me sobra tarjeta por todos sitios, es cara sí... pero para mí vale lo que cuesta.
No sé quién ha dicho algo de cuello de botella del Spider-Man por ahí pero la respuesta es que sí, ya hemos dicho varias veces que el juego se mueve básicamente con la CPU y el ancho de banda de memoria, la GPU pasa a un papel entre comillas secundario, si le quito el cap y le activo el DLSS3 el juego se va del tirón al límite del driver y no se mueve de ahí en V-Sync con G-Sync, en este caso el límite para 144Hz son 138fps con DLSS3 y G-Sync activados para evitar cualquier tearing, eso con un 5800X3D, si tienes un 13XXX obvio te irá mejor con mayores tasas de refresco, pero yo a partir de 100 fps me cuesta ver la diferencia, la veo, pero no la aprecio tanto como el cambio entre 60 y 100.
leonigsxr1000 escribió:Tienes toda la razón yo prefiero también mi Focus ST a un Ferrari , el ferrari hace mucho ruido y me molesta 😅
KKnot escribió:No me decido por cuál 4090 tirar... La Founders la tengo descartada, básicamente porque no hay, y el resto no sé si estirar a una Asus, las Msi, una Zotac... Me da que todas son bastante parecidas, normalmente habría tirado Gigabyte o Asus pero tienen infladisimo el precio.
leonigsxr1000 escribió:@Lince_SPAIN
Gracias por lo de crío, lo tomaré como un.cumplido pero estoy más cerca de los 50 que de los 40.
Era un poco de cachondeo hombre , me ha resultado curioso cuanto menos tu argumento .
Disfruta de tu 4080
chrispro escribió:No sabia que habia tanto ecologista por aqui pendiente del consumo xD
Yo intentando llegar a los 600w como sea.. 570 es mi record..
🤣
Rvilla87 escribió:Esos datos para justificar tener un pepino de CPU en 4k (1º gráfico) no le veo mucho sentido en el momento en el que se compara Intel con AMD sabiendo que algunos juegos son funcionan mejor en una marca que en otra.
Lo suyo sería ver la diferencia entre diferentes modelos de una misma marca (Intel por una parte y AMD por otra), y entonces esa diferencia sí que sería por un mejor procesador. Lo pregunté el otro día, alguien sabe un buen análisis completo donde comparen varias CPUs en varios juegos a 4k con la 4090? Porque como decía a 1080 hay muchísimos (es donde más se nota), a 1440 ya se nota menos pero aún así hay, pero ya en 4k ya muchos los ignoran y los que lo mencionan meten juegos multiplayer o incluso le bajan la calidad a los juegos para que vayan a muchos fps, consiguen que para el caso aplique lo mismo que para 1440
O simplificando mucho la pregunta, con la 4090 a 4k en un juego exigente que le hagas ir a menos de 120fps el cambio de un procesador potente como un 13900k va hacer que vaya un 5% mas rápido que con uno medio como el 13600k? Puedo intentar responder esa pregunta con información de diferentes fuentes, pero posiblemente no sean datos comparables y no les daría credibilidad.
Creo que en parte hay tanto debate en muchos de los temas porque falta información contrastada.
xejo22 escribió:@chrispro como llegas a 600W, la mía esta capas a 450W, subiendo el power limit?
josep345 escribió:chrispro escribió:No sabia que habia tanto ecologista por aqui pendiente del consumo xD
Yo intentando llegar a los 600w como sea.. 570 es mi record..
🤣
Con la "ventana al futuro" que le hiciste a la caja para sacar los cables del conector 12vhpwr,puedes darle caña que tiene refrigeración extra
KailKatarn escribió:Esto no es cuestión de pensar que noseque CPU te va a dar un 5% - 10% o un 25% extra, sino que la CPU más potente que te puedas permitir siempre te va a ofrecer los mejores mínimos posibles, independientemente de la resolución, disfrutando el mejor frametime posible y por lo tanto la mejor suavidad que puedas tener en un videojuego. Por eso en consolas aunque un juego pudiese ir a 50fps con bajones, la inmensa mayoría de esos títulos se los capan a 30fps, para que el frametime sea plano y de ahí lo de "los 30fps en consola son mejores que los 30fps en PC" que muchos repiten como loros.
chrispro escribió:No sabia que habia tanto ecologista por aqui pendiente del consumo xD
Yo intentando llegar a los 600w como sea.. 570 es mi record..
🤣
Rvilla87 escribió:@KailKatarn tienes razón, dije AMD vs Intel pero como dices eso no será determinante (creo que se me fue la olla pensando en la comparativa AMD vs Nvidia ). Bueno, dejemos esa parte porque al final tampoco es la parte mas importante de mi duda. En general no te discuto nada de lo que dijiste porque me cuadra todo lo que dices pero creo que sigues sin responder a mi duda. En este párrafo que te contesto a ver si me explico bien:KailKatarn escribió:Esto no es cuestión de pensar que noseque CPU te va a dar un 5% - 10% o un 25% extra, sino que la CPU más potente que te puedas permitir siempre te va a ofrecer los mejores mínimos posibles, independientemente de la resolución, disfrutando el mejor frametime posible y por lo tanto la mejor suavidad que puedas tener en un videojuego. Por eso en consolas aunque un juego pudiese ir a 50fps con bajones, la inmensa mayoría de esos títulos se los capan a 30fps, para que el frametime sea plano y de ahí lo de "los 30fps en consola son mejores que los 30fps en PC" que muchos repiten como loros.
Está claro que nunca te puedes equivocar, a nivel calidad, si te vas a la CPU mas potente, pero ese no era el motivo de mi duda. Creo que nadie duda en si un 13900k (720€) es mejor que un 7600/13600 (320€). La duda es si vale la pena gastarte mas del doble de dinero en lo mas top si quizás con algo mucho mas barato a nivel de rendimiento de juegos solo pierdes unos pocos fps. Sí, comentas lo del frametime que es muy importante, pero aún así me gustaría ver el frametime con CPUs menos potente a ver cómo se comportan.
Y esa duda, como llevo diciendo varios mensajes, no veo ninguna buena comparativa que me la resuelva. Lo que veo es que las comparativas de CPUs las han probado con la 3090 (ya desfasada con la 4090) y las comparativas de 4090 solo prueban con procesadores top (13900k por ejemplo) o con otros procesadores menos potentes pero ignorando la 4k o poniendo juegos en 4k pero que van a muchos fps (bajando gráficos, siendo juegos multiplayer competitivos, etc).
Es que sin información contrastada que revisar ya es un tema de creerse lo que diga alguien de un foro sin saber si lo que dice tiene mas o menos sentido y apostar tu dinero en su afirmación (sin demostrarlo). Por ejemplo en tu caso así por encima casi que solo recuerdo decirle a un forero que lo había hecho bien en la elección de la CPU con una 4090 cuando eligió una 13900k. Claro, yendo a lo mas pepino es difícil equivocarse. Mi duda va más allá, y es saber qué hace una CPU con menor potencia (por ejemplo 7600X o 13600k) tan poco capaz como para ser (o no) para para una 4090 con juegos a 4k: un mínimo de cores potentes, los de consumo, tener un mínimo de threads o cores, unos mhz mínimos, etc.
Sin entrar a ese detalle, creo que esta duda me la resolverán los análisis de futuras CPUs que corran con una 4090... por el momento como digo no he sido capaz de encontrar info fiable.chrispro escribió:No sabia que habia tanto ecologista por aqui pendiente del consumo xD
Yo intentando llegar a los 600w como sea.. 570 es mi record..
🤣
Sí, claro, el hilo está lleno de Greta Thunberg de turno, no te jode
A ti como te gusta mucho pollagordear y el salseo quizás no entiendes cuando se habla de que por un porcentaje nimio de fps perdidos, si puedes ahorrarte un consumo notable y de paso reducir temperaturas puede valer la pena. Pero vamos, que tampoco es una cuestión de que si no hagas lo que unos dicen estás equivocado, aquí que cada cual haga lo que considere más sensato/óptimo/correcto/lesalgaloshuevos.
Rvilla87 escribió:Está claro que nunca te puedes equivocar, a nivel calidad, si te vas a la CPU mas potente, pero ese no era el motivo de mi duda. Creo que nadie duda en si un 13900k (720€) es mejor que un 7600/13600 (320€). La duda es si vale la pena gastarte mas del doble de dinero en lo mas top si quizás con algo mucho mas barato a nivel de rendimiento de juegos solo pierdes unos pocos fps. Sí, comentas lo del frametime que es muy importante, pero aún así me gustaría ver el frametime con CPUs menos potente a ver cómo se comportan.
Y esa duda, como llevo diciendo varios mensajes, no veo ninguna buena comparativa que me la resuelva. Lo que veo es que las comparativas de CPUs las han probado con la 3090 (ya desfasada con la 4090) y las comparativas de 4090 solo prueban con procesadores top (13900k por ejemplo) o con otros procesadores menos potentes pero ignorando la 4k o poniendo juegos en 4k pero que van a muchos fps (bajando gráficos, siendo juegos multiplayer competitivos, etc).
Es que sin información contrastada que revisar ya es un tema de creerse lo que diga alguien de un foro sin saber si lo que dice tiene mas o menos sentido y apostar tu dinero en su afirmación (sin demostrarlo). Por ejemplo en tu caso así por encima casi que solo recuerdo decirle a un forero que lo había hecho bien en la elección de la CPU con una 4090 cuando eligió una 13900k. Claro, yendo a lo mas pepino es difícil equivocarse. Mi duda va más allá, y es saber qué hace una CPU con menor potencia (por ejemplo 7600X o 13600k) tan poco capaz como para ser (o no) para para una 4090 con juegos a 4k: un mínimo de cores potentes, los de consumo, tener un mínimo de threads o cores, unos mhz mínimos, etc.
Sin entrar a ese detalle, creo que esta duda me la resolverán los análisis de futuras CPUs que corran con una 4090... por el momento como digo no he sido capaz de encontrar info fiable.
KailKatarn escribió:Rvilla87 escribió:Está claro que nunca te puedes equivocar, a nivel calidad, si te vas a la CPU mas potente, pero ese no era el motivo de mi duda. Creo que nadie duda en si un 13900k (720€) es mejor que un 7600/13600 (320€). La duda es si vale la pena gastarte mas del doble de dinero en lo mas top si quizás con algo mucho mas barato a nivel de rendimiento de juegos solo pierdes unos pocos fps. Sí, comentas lo del frametime que es muy importante, pero aún así me gustaría ver el frametime con CPUs menos potente a ver cómo se comportan.
Y esa duda, como llevo diciendo varios mensajes, no veo ninguna buena comparativa que me la resuelva. Lo que veo es que las comparativas de CPUs las han probado con la 3090 (ya desfasada con la 4090) y las comparativas de 4090 solo prueban con procesadores top (13900k por ejemplo) o con otros procesadores menos potentes pero ignorando la 4k o poniendo juegos en 4k pero que van a muchos fps (bajando gráficos, siendo juegos multiplayer competitivos, etc).
Es que sin información contrastada que revisar ya es un tema de creerse lo que diga alguien de un foro sin saber si lo que dice tiene mas o menos sentido y apostar tu dinero en su afirmación (sin demostrarlo). Por ejemplo en tu caso así por encima casi que solo recuerdo decirle a un forero que lo había hecho bien en la elección de la CPU con una 4090 cuando eligió una 13900k. Claro, yendo a lo mas pepino es difícil equivocarse. Mi duda va más allá, y es saber qué hace una CPU con menor potencia (por ejemplo 7600X o 13600k) tan poco capaz como para ser (o no) para para una 4090 con juegos a 4k: un mínimo de cores potentes, los de consumo, tener un mínimo de threads o cores, unos mhz mínimos, etc.
Sin entrar a ese detalle, creo que esta duda me la resolverán los análisis de futuras CPUs que corran con una 4090... por el momento como digo no he sido capaz de encontrar info fiable.
Eso que preguntas del 7600X o 13600K son preguntas fáciles, más que nada porque te van a dar un rendimiento muy similar a un 13900K en el 95% de los títulos, con frametimes muy similares. Ahora bien, si veo a un usuario ponerse un 13900K con una 4090 pues claro que le voy a decir que sabe lo que se hace, porque en cualquier situación va a poder tener los mejores fps mínimos y frametime en cualquier juego, inclusive en esos que son capaces de usar 8 cores / 16 hilos o más. Que son muy pocos hoy por hoy? sin duda, pero para ese tipo de usuario ya da igual que llueva o truene que está preparado.
Si al final todo se reduce al IPC. Un 13600K lo va a tener muy similar al 13900K salvo en esos títulos que conforman el 5%. Luego ya es cuestión de cada uno si prefiere dejarse más o menos, pero vamos, si te has dejado 2000 pavazos en una gráfica es porque eres un usuario exigente y quieres tener el mejor resultado pase lo que pase. Yo personalmente no me dejaría esos 2000 pavazos para que el día de mañana el título que te guste, o uno que quieras disfrutar justo te de por culo. Por eso una jugada inteligente es el 13700K, que te ofrece el mismo número de núcleos Performance y no te van a pillar tampoco por ahí.
Lo que sí tiene gracia es que comentes cosas como "es que hay que fiarse de uno que dice cosas por un foro" y luego bien que te fías y le das thanks a la gente que menciona que con cualquier micro se puede jugar a 4K o llevar a buen puerto una 4090. No se puede estar en misa y replicando a la vez.