[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

@_anVic_ lo que tu quieras y donde quieras, cariño.

Si yo estoy feliz con lo que tengo. Es mas. hasta ha superado mis expectativas. Pero que hay cosas que no puedo dejar pasar, pese a quien le pese! Y que conste que te sigo y te doy la razon en el 90% de los casos, pero no hay que dejarse caer en el fanatismo.

PD: Estoy dispuesto a pasar las pruebas que digais bajo las condiciones que digais, que conste!
sergio_93 escribió:
hh1 escribió:Pero es que habría que matizar, qué es un equipo sencillo...

Para mi sencillo, seria si en vez de una placa B550, tuvieras una A320 con un 5800X y una 3090, de propina con una fuente Nox. A ese tipo de montajes me referia yo. Más que sencillo, seria descompensado.
KindapearHD escribió:Lo de siempre, si no tienes un 13900K y una fuente 1200W con tu 4090, es que eres tonto.
Yo quiero ver esas pruebas de esos picos de consumo en escenarios reales y no en test sintéticos que os pasáis para tocaros fuertemente y ver, si esa 4090 y ese 5800X, consumen más de 750W como para tener que recomendar una fuente de 1000-1200W.

@sergio_93 Aquí ya ves que entre gurús y gente que se gasta TU dinero sin problema, no vamos faltos.
Lo que te han dicho, prueba la 4090 con tu fuente, que no se va a quemar nada. Que aquí si te gastas 2000€ en una 4090, ya casi que te obligan a gastar en lo demás lo mismo.


Acabo de hacer otra prueba con el medidor de potencia. Esta vez con el Furmark a 4K 8x MSAA + Cinebench. El pico de consumo con la RTX 3080 es de 549W (todo el equipo).

Suponiendo que la RTX 4090 consuma 450W, en juegos debería tener sobre 600-630W de carga. Que vaya a funcionar no lo dudo, pero no se si a la larga reducirá la vida útil de la fuente dándole tanta caña.

Bueno, no tengo claro aún si voy a cambiar la tarjeta gráfica, si la cambio ya os diré que tal.
HaGeK escribió:@sergio_93 Exactamente, tomo como referencia ese juego. Y no es de los peores optimizados que hay. El TLOU es muuuucho peor. XD

Yo estoy con el compi.
Que el 5800x no es lo mejor ,vale.
Pero tampoco creo que haya tanta diferencia comen la msyoría de juegos a 4K.

Que haya algunos juegos puntuales ,puede ser.Pwor la mayroís, los duo.

Es que es lo mismo que cuando yo emiexé a dudar de si sustituir mi 12600 por un 13509-13699k.
Aquí mucho me dijeron que sí, que me lastaraba que no veas...
Y luego, con el tiempo, mirando y remirandi ,l diferencia es ínfima para el desembolso a realizar.
Y eso que es a 1440p.
Que en algún juego sí pueda ser más notoria la diferencia?No lo dudo.
Peor en la mayoría ,no lo creo
Y eso ,partiendo de la base ,de que con un 5800X y una 4090 ya va sobradete de rendimiento

Siempre va a ser mejor un 5800X +4090 que un 13900k +4080.
@sergio_93
Yo sigo p nadnaid que con esa fuente no tienes problema.
_anVic_ está baneado por "clon de usuario baneado"
HaGeK escribió:@_anVic_ lo que tu quieras y donde quieras, cariño.

Si yo estoy feliz con lo que tengo. Es mas. hasta ha superado mis expectativas. Pero que hay cosas que no puedo dejar pasar, pese a quien le pese! Y que conste que te sigo y te doy la razon en el 90% de los casos, pero no hay que dejarse caer en el fanatismo.

PD: Estoy dispuesto a pasar las pruebas que digais bajo las condiciones que digais, que conste!



Imagen

Pásale un port royal, que tiene ray tracing, a tu 4080 a tope de oc a ver que tal los resultados con ese 12700f y comparamos consumos Vs mi 4090 a un pico máximo de 306W . [fumando]

Adjunta captura y deja correr gpuz en segundo plano ( durante el bench ) como he hecho yo, marcando las mismas casillas de las máximas lecturas.

A ver si este resultado con un consumo ridículo no va a valer para una fuente de 750W... donde probablemente tu 4080 oceada hasta las trancas va a quedar en entredicho.
He sido poseedor de un 5800X desde su salida hasta que cambié a un 13700K con DDR5, el 5800x iba con una 3070 y para la mayoria de juegos funcionaba, pero el 13700K tiene mejores minimos y juegos que saturaban 1 hilo o 2 de ir a 62 fps a ir por ejemplo a 75 estables con vsync, o de ir a 30 a 60, juegos tipo Conan Exiles con construcciones masivas o RAGEMP.
HaGeK escribió: Que tengo un pedazo de procesador y no puedo correr todo a 2k a 144 con todo a tope, por mucha 4080 y super pc que tenga.


esto te pasa por haber sobre-invertido en su momento en un micro ( y placa) sobre dimensionado, que ahora con una 4080 no te llega a jugar a 2k 144hz, si hubieses comprado un micro y placa midrange en su momento, con esa pasta ahorrada, ahora habrias pillado una 4090 y jugabas a tope 2k 144 hz que deseas.

La leccion es: para gaming, la mejor inversion es micro y placa midrange de la ultima generacion, y toda la carne en el asador (los euros) a invertirlos en la GPU, sobre todo en estos tiempos que se han vuelto autenticos articulos de lujo.

Productividad, es otra historia...

y de bonus te dejo este video, un 7600x midrange (230€) superando al 12700k que seguramente te habra costado unos 400 pavos

sergio_93 escribió:
KindapearHD escribió:Lo de siempre, si no tienes un 13900K y una fuente 1200W con tu 4090, es que eres tonto.
Yo quiero ver esas pruebas de esos picos de consumo en escenarios reales y no en test sintéticos que os pasáis para tocaros fuertemente y ver, si esa 4090 y ese 5800X, consumen más de 750W como para tener que recomendar una fuente de 1000-1200W.

@sergio_93 Aquí ya ves que entre gurús y gente que se gasta TU dinero sin problema, no vamos faltos.
Lo que te han dicho, prueba la 4090 con tu fuente, que no se va a quemar nada. Que aquí si te gastas 2000€ en una 4090, ya casi que te obligan a gastar en lo demás lo mismo.


Acabo de hacer otra prueba con el medidor de potencia. Esta vez con el Furmark a 4K 8x MSAA + Cinebench. El pico de consumo con la RTX 3080 es de 549W (todo el equipo).

Suponiendo que la RTX 4090 consuma 450W, en juegos debería tener sobre 600-630W de carga. Que vaya a funcionar no lo dudo, pero no se si a la larga reducirá la vida útil de la fuente dándole tanta caña.

Bueno, no tengo claro aún si voy a cambiar la tarjeta gráfica, si la cambio ya os diré que tal.


Y en un test sintético. Jugando y más aún a 1440p, no vas a tener esos consumos. Pero bueno, una vez q ves que no es indispensable cambiar la fuente, tú ya haz lo que quieras. Cuando te muestren esas pruebas para ver que no te vale con 750W, pues cámbiala [hallow]
sergio_93 escribió:
KindapearHD escribió:Lo de siempre, si no tienes un 13900K y una fuente 1200W con tu 4090, es que eres tonto.
Yo quiero ver esas pruebas de esos picos de consumo en escenarios reales y no en test sintéticos que os pasáis para tocaros fuertemente y ver, si esa 4090 y ese 5800X, consumen más de 750W como para tener que recomendar una fuente de 1000-1200W.

@sergio_93 Aquí ya ves que entre gurús y gente que se gasta TU dinero sin problema, no vamos faltos.
Lo que te han dicho, prueba la 4090 con tu fuente, que no se va a quemar nada. Que aquí si te gastas 2000€ en una 4090, ya casi que te obligan a gastar en lo demás lo mismo.


Acabo de hacer otra prueba con el medidor de potencia. Esta vez con el Furmark a 4K 8x MSAA + Cinebench. El pico de consumo con la RTX 3080 es de 549W (todo el equipo).

Suponiendo que la RTX 4090 consuma 450W, en juegos debería tener sobre 600-630W de carga. Que vaya a funcionar no lo dudo, pero no se si a la larga reducirá la vida útil de la fuente dándole tanta caña.

Bueno, no tengo claro aún si voy a cambiar la tarjeta gráfica, si la cambio ya os diré que tal.


donde has tomado ese consumo de 549 w? en el enchufe de la pared?
En resoluciones de 4k, el limitante no es el procesador es la grafica
para ver realmente la diferencia de esos procesadores seria mejor ejecutar los juegos a 720p

Cualquier procesador medianamente reciente en resoluciones altas 4k el limitante siempre será la grafica, no el procesador.

Recordemos que casi todos los juegos de pc actualmente, carecen de una optimización creíble, hay mucha competencia y los juegos salen como churros en fase beta y luego con el tiempo y si tienen ganas ya lo parchearemos

Como ejemplo los últimos lanzamientos ...

p.d. pensando en cambiar mi 2080 super por una de la generación actual, sin cambiar mi procesador ni mi placa, que es una 470 (pcie 3.0) para 1440p, sin prisas [chiu]
parh escribió:
HaGeK escribió: Que tengo un pedazo de procesador y no puedo correr todo a 2k a 144 con todo a tope, por mucha 4080 y super pc que tenga.


esto te pasa por haber sobre-invertido en su momento en un micro ( y placa) sobre dimensionado, que ahora con una 4080 no te llega a jugar a 2k 144hz, si hubieses comprado un micro y placa midrange en su momento, con esa pasta ahorrada, ahora habrias pillado una 4090 y jugabas a tope 2k 144 hz que deseas.

La leccion es: para gaming, la mejor inversion es micro y placa midrange de la ultima generacion, y toda la carne en el asador (los euros) a invertirlos en la GPU, sobre todo en estos tiempos que se han vuelto autenticos articulos de lujo.

Productividad, es otra historia...

y de bonus te dejo este video, un 7600x midrange (230€) superando al 12700k que seguramente te habra costado unos 400 pavos



Ya que te pones a comparar al menos compara procesadores de la misma generación. A parte el 12700k lleva memoria 3600mhz y el 7600x lleva 6200mhz. [toctoc]
_anVic_ está baneado por "clon de usuario baneado"
Strait escribió:
parh escribió:
HaGeK escribió: Que tengo un pedazo de procesador y no puedo correr todo a 2k a 144 con todo a tope, por mucha 4080 y super pc que tenga.


esto te pasa por haber sobre-invertido en su momento en un micro ( y placa) sobre dimensionado, que ahora con una 4080 no te llega a jugar a 2k 144hz, si hubieses comprado un micro y placa midrange en su momento, con esa pasta ahorrada, ahora habrias pillado una 4090 y jugabas a tope 2k 144 hz que deseas.

La leccion es: para gaming, la mejor inversion es micro y placa midrange de la ultima generacion, y toda la carne en el asador (los euros) a invertirlos en la GPU, sobre todo en estos tiempos que se han vuelto autenticos articulos de lujo.

Productividad, es otra historia...

y de bonus te dejo este video, un 7600x midrange (230€) superando al 12700k que seguramente te habra costado unos 400 pavos



Ya que te pones a comparar al menos compara procesadores de la misma generación. A parte el 12700k lleva memoria 3600mhz y el 7600x lleva 6200mhz. [toctoc]


Yo te posteo una review seria. El tal Mark pc ya sabemos que es un faker troll.


7600x vs 13600k, 5% màs rápido el 7600x a 1080p en una media de 54 juegos tirando de una 4090.

Minuto 9:31 del vídeo para ir directo a los resultados de 1080p.
_anVic_ escribió:
Strait escribió:
parh escribió:
esto te pasa por haber sobre-invertido en su momento en un micro ( y placa) sobre dimensionado, que ahora con una 4080 no te llega a jugar a 2k 144hz, si hubieses comprado un micro y placa midrange en su momento, con esa pasta ahorrada, ahora habrias pillado una 4090 y jugabas a tope 2k 144 hz que deseas.

La leccion es: para gaming, la mejor inversion es micro y placa midrange de la ultima generacion, y toda la carne en el asador (los euros) a invertirlos en la GPU, sobre todo en estos tiempos que se han vuelto autenticos articulos de lujo.

Productividad, es otra historia...

y de bonus te dejo este video, un 7600x midrange (230€) superando al 12700k que seguramente te habra costado unos 400 pavos



Ya que te pones a comparar al menos compara procesadores de la misma generación. A parte el 12700k lleva memoria 3600mhz y el 7600x lleva 6200mhz. [toctoc]


Yo te posteo una review seria. El tal Mark pc ya sabemos que es un faker troll.


7600x vs 13600k, 5% màs rápido el 7600x a 1080p en una media de 54 juegos tirando de una 4090.

Minuto 9:31 del vídeo para ir directo a los resultados de 1080p.

Hay alguna de shí de un 13500-13600k vs 13900k?
Para que vean que es absurdo meterle semejante cpu para jugar?

@rankatana
Hay que probar las CPUs a 720p, cierto.
Pero es absurdo mirar ese resultado, cuando su uso con una 4090, no va a bajar de 1440p, por lo que habrá que mirar la cpu ,en la tesulución a usar.
parh escribió:
sergio_93 escribió:
KindapearHD escribió:Lo de siempre, si no tienes un 13900K y una fuente 1200W con tu 4090, es que eres tonto.
Yo quiero ver esas pruebas de esos picos de consumo en escenarios reales y no en test sintéticos que os pasáis para tocaros fuertemente y ver, si esa 4090 y ese 5800X, consumen más de 750W como para tener que recomendar una fuente de 1000-1200W.

@sergio_93 Aquí ya ves que entre gurús y gente que se gasta TU dinero sin problema, no vamos faltos.
Lo que te han dicho, prueba la 4090 con tu fuente, que no se va a quemar nada. Que aquí si te gastas 2000€ en una 4090, ya casi que te obligan a gastar en lo demás lo mismo.


Acabo de hacer otra prueba con el medidor de potencia. Esta vez con el Furmark a 4K 8x MSAA + Cinebench. El pico de consumo con la RTX 3080 es de 549W (todo el equipo).

Suponiendo que la RTX 4090 consuma 450W, en juegos debería tener sobre 600-630W de carga. Que vaya a funcionar no lo dudo, pero no se si a la larga reducirá la vida útil de la fuente dándole tanta caña.

Bueno, no tengo claro aún si voy a cambiar la tarjeta gráfica, si la cambio ya os diré que tal.


donde has tomado ese consumo de 549 w? en el enchufe de la pared?


Sí, he conectado la torre directamente a uno de estos: https://www.conrad.de/de/p/brennenstuhl ... 03696.html.
_anVic_ está baneado por "clon de usuario baneado"
hh1 escribió:
_anVic_ escribió:
Strait escribió:
Ya que te pones a comparar al menos compara procesadores de la misma generación. A parte el 12700k lleva memoria 3600mhz y el 7600x lleva 6200mhz. [toctoc]


Yo te posteo una review seria. El tal Mark pc ya sabemos que es un faker troll.


7600x vs 13600k, 5% màs rápido el 7600x a 1080p en una media de 54 juegos tirando de una 4090.

Minuto 9:31 del vídeo para ir directo a los resultados de 1080p.

Hay alguna de shí de un 13500-13600k vs 13900k?
Para que vean que es absurdo meterle semejante cpu para jugar?

@rankatana
Hay que probar las CPUs a 720p, cierto.
Pero es absurdo mirar ese resultado, cuando su uso con una 4090, no va a bajar de 1440p, por lo que habrá que mirar la cpu ,en la tesulución a usar.




Básicamente gana por ir más dopado de serie , a igualdad de frecuencias el 13600k tiraría prácticamente los mismos fps que el 13900k

Imagen

Mira a 1080p 12 juegos avg. Ojo con el 5800x3d que ahí anda cerca con las memos ddr4 a 3600mhz. Observa donde queda el 13900k con las memos a 3600mhz , le saca el 3.5% rascao al 5800x3d

@HaGek que cómo llevas el port royal, lo has pasado ya con la 4080 para ver donde andan los consumos?
sergio_93 escribió:
parh escribió:
sergio_93 escribió:
Acabo de hacer otra prueba con el medidor de potencia. Esta vez con el Furmark a 4K 8x MSAA + Cinebench. El pico de consumo con la RTX 3080 es de 549W (todo el equipo).

Suponiendo que la RTX 4090 consuma 450W, en juegos debería tener sobre 600-630W de carga. Que vaya a funcionar no lo dudo, pero no se si a la larga reducirá la vida útil de la fuente dándole tanta caña.

Bueno, no tengo claro aún si voy a cambiar la tarjeta gráfica, si la cambio ya os diré que tal.


donde has tomado ese consumo de 549 w? en el enchufe de la pared?


Sí, he conectado la torre directamente a uno de estos: https://www.conrad.de/de/p/brennenstuhl ... 03696.html.


pues entonces que sepas que el PC esta consumiendo aun menos que eso. ese valor de la pared lo multiplicas por la famosa eficiencia de la fuente (80 plus bromce, oro, titanio, etc) y tendras el consumo real de la totalidad de componentes del PC
_anVic_ está baneado por "clon de usuario baneado"
Yo le he ofrecido de regalo una fuente de 1200w por si su psu de 750w no le basta. No sé a qué espera para pillarse la 4090. [fumando]

Igual no me cree pero lo digo muy en serio. Puede contactarme por privado y le doy hasta mi teléfono personal para hablar del asunto en cuestión.
_anVic_ escribió:
hh1 escribió:
_anVic_ escribió:
Yo te posteo una review seria. El tal Mark pc ya sabemos que es un faker troll.


7600x vs 13600k, 5% màs rápido el 7600x a 1080p en una media de 54 juegos tirando de una 4090.

Minuto 9:31 del vídeo para ir directo a los resultados de 1080p.

Hay alguna de shí de un 13500-13600k vs 13900k?
Para que vean que es absurdo meterle semejante cpu para jugar?

@rankatana
Hay que probar las CPUs a 720p, cierto.
Pero es absurdo mirar ese resultado, cuando su uso con una 4090, no va a bajar de 1440p, por lo que habrá que mirar la cpu ,en la tesulución a usar.




Básicamente gana por ir más dopado de serie , a igualdad de frecuencias el 13600k tiraría prácticamente los mismos fps que el 13900k

Imagen

Mira a 1080p 12 juegos avg. Ojo con el 5800x3d que ahí anda cerca con las memos ddr4 a 3600mhz. Observa donde queda el 13900k con las memos a 3600mhz , le saca el 3.5% rascao al 5800x3d

@HaGek que cómo llevas el port royal, lo has pasado ya con la 4080 para ver donde andan los consumos?

Es lo que decimos.Y eso a 1080p...que a más ..
No merece en absoluto gastar tanto en cpu salvo que te sobre el dinero.

A mí me devían que el 12600 ,menudo cuello de botella y tal.
Luego ves la realidad ,y no es para tanto
Igual que creo, que el de un 5800X tampoco es para tanto.Y menos ,a 4K.
_anVic_ está baneado por "clon de usuario baneado"
hh1 escribió:
_anVic_ escribió:
hh1 escribió:Hay alguna de shí de un 13500-13600k vs 13900k?
Para que vean que es absurdo meterle semejante cpu para jugar?

@rankatana
Hay que probar las CPUs a 720p, cierto.
Pero es absurdo mirar ese resultado, cuando su uso con una 4090, no va a bajar de 1440p, por lo que habrá que mirar la cpu ,en la tesulución a usar.




Básicamente gana por ir más dopado de serie , a igualdad de frecuencias el 13600k tiraría prácticamente los mismos fps que el 13900k

Imagen

Mira a 1080p 12 juegos avg. Ojo con el 5800x3d que ahí anda cerca con las memos ddr4 a 3600mhz. Observa donde queda el 13900k con las memos a 3600mhz , le saca el 3.5% rascao al 5800x3d

@HaGek que cómo llevas el port royal, lo has pasado ya con la 4080 para ver donde andan los consumos?

Es lo que decimos.Y eso a 1080p...que a más ..
No merece en absoluto gastar tanto en cpu salvo que te sobre el dinero.

A mí me devían que el 12600 ,menudo cuello de botella y tal.
Luego ves la realidad ,y no es para tanto
Igual que creo, que el de un 5800X tampoco es para tanto.Y menos ,a 4K.


Es que realmente quien coño va a jugar a 1080p con una 4090, me parece una soberana idiotez.

Lo ideal para sacarle todo el partido y donde realmente brilla es a 4k de 120hz en adelante. Para jugar a 1440p 240hz o 1080p 360hz ya tienes la 4080 o la 3090ti
_anVic_ escribió:
hh1 escribió:
_anVic_ escribió:


Básicamente gana por ir más dopado de serie , a igualdad de frecuencias el 13600k tiraría prácticamente los mismos fps que el 13900k

Imagen

Mira a 1080p 12 juegos avg. Ojo con el 5800x3d que ahí anda cerca con las memos ddr4 a 3600mhz. Observa donde queda el 13900k con las memos a 3600mhz , le saca el 3.5% rascao al 5800x3d

@HaGek que cómo llevas el port royal, lo has pasado ya con la 4080 para ver donde andan los consumos?

Es lo que decimos.Y eso a 1080p...que a más ..
No merece en absoluto gastar tanto en cpu salvo que te sobre el dinero.

A mí me devían que el 12600 ,menudo cuello de botella y tal.
Luego ves la realidad ,y no es para tanto
Igual que creo, que el de un 5800X tampoco es para tanto.Y menos ,a 4K.


Es que realmente quien coño va a jugar a 1080p con una 4090, me parece una soberana idiotez.

Lo ideal para sacarle todo el partido y donde realmente brilla es a 4k de 120hz en adelante. Para jugar a 1440p 240hz o 1080p 360hz ya tienes la 4080 o la 3090ti

A 1440p 240h sí le veo aún sentido
A 1080p,no.

Y es lo que decimos...para qué miramos rendimiento de Cpus con una 4090 a 720p o 1080p,si no se va a usar a esas resoluciones.
Nadie la usa a menos de 1440p,siendo lo ideal,el 4k.
De gurús nada, no os flipeis, que queréis defender vuestras tesis de UV y fuentes justas es un problema muy serio que tenéis y confundis a la gente que no sabe.
Lo primero que una 4090 no la puedes emparejar con un 5800x, es como tener un Ferrari con ruedas desgastadas,y no me vengáis que si en 4k no se nota, en 4k se nota el cuello de botella comprobado por mi mismo, en el spiderman por ejemplo, y ya con un 9900k ni te cuento.
Lo segundo que recomendar una fuente de 750w para una 4090 es de traca,luego cuando el usuario venga por aquí de nuevo a decir que no sabe que le pasa a mi pc, que me crashean los juegos, que se apaga solo etc.....

Lo más importante en un pc es la estabilidad(fuente) y eso de ir rácano en potencia conmigo no va,pk se de primera mano los problemas de ir justo con una fuente.
@yosu888
Yo no tengo una 4090 pero tengo una 4080 y justamente tengo un 5800 x y tiene un cuello de botella minimo.y sobre la fuente yo personalmente no pondria una 650w.claro si juegas a 1080p tendras mas cuello de botella pero comprarte una grafica asi y jugar a 1080 es un desperdicio

Otra pregunta que gpu y cpu tienes tu??.
Un saludo
_anVic_ está baneado por "clon de usuario baneado"
yosu888 escribió:De gurús nada, no os flipeis, que queréis defender vuestras tesis de UV y fuentes justas es un problema muy serio que tenéis y confundis a la gente que no sabe.
Lo primero que una 4090 no la puedes emparejar con un 5800x, es como tener un Ferrari con ruedas desgastadas,y no me vengáis que si en 4k no se nota, en 4k se nota el cuello de botella comprobado por mi mismo, en el spiderman por ejemplo, y ya con un 9900k ni te cuento.
Lo segundo que recomendar una fuente de 750w para una 4090 es de traca,luego cuando el usuario venga por aquí de nuevo a decir que no sabe que le pasa a mi pc, que me crashean los juegos, que se apaga solo etc.....

Lo más importante en un pc es la estabilidad(fuente) y eso de ir rácano en potencia conmigo no va,pk se de primera mano los problemas de ir justo con una fuente.



Yo el Spiderman remastered lo pude jugar sin problema alguno a 4k ultra 120fps con rt a tope sin despeinarse el 9900k.. Con la 4090 tacándose las pelotas literalmente. Y es que no necesito más de 120fps ya que juego a 120hz.



Minuto 2:44 activo RT
Minuto 5:14 a 8K

Que quieres más de 120fps fps no hay problema tampoco.



[fumando]

De paso mírate los consumos [+risas]

Con la 3090Ti Spiderman de salida sin parches a 5k Dlss 9900k de serie [fumando]

@Harrylladas pues yo compré una 4090 cuando tenía el 5800x y te puedo asegurar que tenía cuello de botella en 1080,2k y 4k, después tuve la suerte de conseguir un 5800x3d y es verdad que en 1080p es muy bueno para buscar los 240 fps, pero en 2k y 4k se resentía ,alfinal da lo que da, así que cambie de plataforma para meter un 13900k y el cambio fue enorme, una mejora de fps mínimos y una estabilidad de frametime muy buena, la fuente pille una be quiet de 1200w para ir bien, algunos juegos con la gpu oc y la cpu oc consumen una burrada, yo busco sacarle el jugo lo máximo posible a mi pc, que para eso lo he comprado y me he gastado los duros, no para estar haciendo uv y ir justo de componentes.
@_anVic_ mira ciclito deja de trollear, ya te hemos reportado unos cuantos,espero que los moderadores tomen cartas en el asunto lo antes posible, encima vas de guay regalando fuentes de alimentación.
No hace falta que mandes videos de un usuario banneado mil veces, he visto el Spiderman con un 9900k/4090 a 4k full todo y he visto el cuello de botella enorme que tiene, así que no engañes a la gente.
Yo no voy a entrar más en debates vacíos y menos con un usuario como tú, que todo el foro te tiene calado.
_anVic_ está baneado por "clon de usuario baneado"
yosu888 escribió:@_anVic_ mira ciclito deja de trollear, ya te hemos reportado unos cuantos,espero que los moderadores tomen cartas en el asunto lo antes posible, encima vas de guay regalando fuentes de alimentación.
No hace falta que mandes videos de un usuario banneado mil veces, he visto el Spiderman con un 9900k/4090 a 4k full todo y he visto el cuello de botella enorme que tiene, así que no engañes a la gente.
Yo no voy a entrar más en debates vacíos y menos con un usuario como tú, que todo el foro te tiene calado.


Cuello de botella de que?... si voy con cap a 120Fps rocosos forzando vsync y con fast sync me sobran fps por todos lados. Yo no se como interpretas los videos majete. [carcajad]

Yo no he troleado a nadie.

Te repito yo juego a 4k 120fps y el la gran mayoría de escenarios me apaño fenomenalmente bien con el 9900k.

Que tu cambiaste el tuyo por el 13900k me parece estupendo Pero no lo veo realmente necesario en mi situación actual tiro perfectamente con el 9900k.

Que lo cambiaré cuando salga el 7800x3d o la siguiente gen de intel, probablemente, pero tampoco necesitaré pillarme un 14900k. Hay opciones mucho más económicas para sacarle el juego a la 4090 y también más eficientes. El 13900k tiene poco de eficiencia en rendimiento por w. EL 7950x se lo ultra fuma en ese aspecto.
Vamos que al final para exprimir una 4080/90 hace falta un 13900K, si tienes una plataforma intel 1700 [facepalm]
_anVic_ está baneado por "clon de usuario baneado"
HaGeK escribió:Vamos que al final para exprimir una 4080/90 hace falta un 13900K, si tienes una plataforma intel 1700 [facepalm]



No hace falta un 13900k mirate el 7700x :

Imagen

https://www.pccomponentes.com/amd-ryzen ... ventilador

Por 357 euros te hace el apaño, siendo mucho más eficiente en consumo, más fresco y bastante más económico.
Buenos dias, yo tengo una MSI RTX 3080 Suprim x 10gb,volvi al PC en el 2019 despues de muchos años solo consolas;Me encanta el PC, os estoy leyendo ( Interesante ) viendo la situacion actual del PC gaming, precios...etc.

En mi caso podria comprar una 4080/4090 pero como decision personal he decidido no pasar por el aro; Pero mas alla de eso ,de mi persona,mirando mas alla de uno mismo ;Mi percepcion es que si pretenden cargarse el PC Gaming , usuarios incluso se vayan a consola...Este es el camino,la ruta para cargarse el PC Gaming,es esta, sin ninguna duda.
Todo pasa, todo mejora..esta claro.Pero esta situacion no es esa, se ha ido de madre,siendo claros.

A lo mejor es cierto ,eso de que a esta industria o algunos de los que forman este circo no les interesa el "usuario PC Gaming", pues si esto es cierto,aceptamos la dinamica..Hagamos hipotesis, ¿La serie 5000 que valdra? Viendo el incremento ¿Una 5080 2500 euros ? ¿Una 5090 3000 euros ? Pues eso , el PC gaming a la mierda, ojala me equivoque eh.

Veremos en el futuro ( No tengo bola de cristal, nadie ) pero si sigue asi, no pinta nada bien.
Mi humilde opinion,reflexion en alto.
Saludos jugones.
_anVic_ escribió:
yosu888 escribió:@_anVic_ mira ciclito deja de trollear, ya te hemos reportado unos cuantos,espero que los moderadores tomen cartas en el asunto lo antes posible, encima vas de guay regalando fuentes de alimentación.
No hace falta que mandes videos de un usuario banneado mil veces, he visto el Spiderman con un 9900k/4090 a 4k full todo y he visto el cuello de botella enorme que tiene, así que no engañes a la gente.
Yo no voy a entrar más en debates vacíos y menos con un usuario como tú, que todo el foro te tiene calado.


Cuello de botella de que?... si voy con cap a 120Fps rocosos forzando vsync y con fast sync me sobran fps por todos lados. Yo no se como interpretas los videos majete. [carcajad]

Yo no he troleado a nadie.

Te repito yo juego a 4k 120fps y el la gran mayoría de escenarios me apaño fenomenalmente bien con el 9900k.

Que tu cambiaste el tuyo por el 13900k me parece estupendo Pero no lo veo realmente necesario en mi situación actual tiro perfectamente con el 9900k.

Que lo cambiaré cuando salga el 7800x3d o la siguiente gen de intel, probablemente, pero tampoco necesitaré pillarme un 14900k. Hay opciones mucho más económicas para sacarle el juego a la 4090 y también más eficientes. El 13900k tiene poco de eficiencia en rendimiento por w. EL 7950x se lo ultra fuma en ese aspecto.

Es que no te hace falta cambiar en tu situación.
Y él hubiese jugado básicamente igual con un 13500

Esa es la realidad.
Y es más ,con la diferencia ,se trinca una 4090 en vez de una 4080 y le queda un equipo bastante más potente.
Yo no entiendo tanto enmelonamiento para jugar con CPUs tops,solvo que te sobre la pasta
No merece me basokuto la pena,en mi opinión.

Tú fíjate diferencias entre un 12600K y un 12900k, uo un 13600k y un 13900k.
Son de coña y a 1080p...
esto se parece a Melrose Place o en su defecto salvame deluxe... ,
Lo único que me tienta a día de hoy para renovar algo en la torre es cambiar el 5800x por el 5800x3d. Cada día que pasa menos me tienta.

Cambiar micro, placa base y memoria solamente para notar algo que suben los cuadros mínimos, costando la renovación más de los 350 euros que vale el 5800x3d, directamente ni me tienta, no lo voy a hacer.

En parte todo esto es porque sé que de ahora a un par de años habrá procesadores en la calle que al lado del que tengo debería notarse a todos los niveles la mejoría sin tener que cambiar de gráfica.

Esos mismos procesadores serán los que alegarán algunos por aquí diciendo que ya no sirven los micros de ahora, cuando lo único que les habrá pasado es que ya no serán de la generación más actual.

Si un 13900k no le hace cuello de botella a una 4090 en 4k en el juego que sea, no se lo hace hoy y no se lo hará dentro de 2 años. Pero para algunos sí se lo hará justo al día siguiente del que salga el último i9 de intel.

El sibaritismo y la ultritis es lo que tiene. Además le exigen a sus bolsillos un esfuerzo que no se lo exigen a los que programan los juegos, para que los optimicen.

Y es que la industria se ha especializado sobre todo en hacernos sentir como una mierda a cualquiera que queramos gastarnos los dineros en pcs entusiastas. Da igual que te gastes 2000 euros en una 4090 que ya tienen listas los de nvidia cosas más potentes que esto, aunque ni sirvan para juegos. Obviamente la 5090 el año que viene hará que muchos piensen que sus 4090 de ahora no servirán para nada, cuando hasta el día anterior habrán jugado a los que les haya dado la gana sin demasiado problema.

Si hay tanto componente psicológico en todo esto, prefiero ser cabezón, aguantar un tiempo más con lo que tengo e ir cambiando componentes cuando a mi me dé la gana, no cuando me lo diga alguien que ni me conoce, se cree que es mejor que yo porque tiene el ordenador más grande y le entra el complejo de nuevo cuando entro a decir que me he gastado X pasta en comprar lo que sea y me he puesto a su nivel.

Probablemente yo renovaré el micro, placa y módulos de memoria tiempo antes de que el que tengo me sea un problema para poder jugar con esta gráfica. Me da igual que los cuadros mínimos sean algo más bajos que si tuviera un i9 de intel o el 7800x3d que está por salir, porque stuttering no tengo en ningún caso y es quitar el afterburner de la pantalla para poderme concentrar en el juego en si, en menos de un minuto me importa entre cero y una mierda tener los cuadros mínimos por debajo de alguien con un micro con más ipc.

PD1: Tengo el pálpito de que cuando llegue el día 11 de Abril, con el parche del RT overdrive del cyberpunk 2077, al poner el juego en 4k un 5800x va a dar exactamente lo mismo que un 13900k o un 7800x3d.
pakolo1977 escribió:
PD1: Tengo el pálpito de que cuando llegue el día 11 de Abril, con el parche del RT overdrive del cyberpunk 2077, al poner el juego en 4k un 5800x va a dar exactamente lo mismo que un 13900k o un 7800x3d.



totalmente, ese parche tiene como finalidad dejar obsoleta la 4090 de un plumazo, segun los videos promocionales, la 4090 en 4k RT overdrive ultra se movera en torno a los 25 fps y activando DLSS + FG podremos conseguir unos 60 fps. Eso si, luce ESPECTACULAR (aunque saldran los de siempre a decir que no se nota)

yo al final he decidido renovar mis otros componentes para acompañar la 4090 de mejor hardware. Hasta ahora he tirado con un 3600 asi que creo que este refresh le vendra bien, he intentado elegir componentes equilibrados en precio/rendimiento

ryzen 7600x
placa Asus ROG B650-A
RAM 5600 Mhz corsair (2x16)
cooler Thermalright PA120 (esta maravilla rinde como el noctua NH D15 a solo 40 pavos)
SSD WD_BLACK SN770 2TB PCI 4.0
caja NZXT H7 Flow

estaba tentado en irme al 7700x pero no lo voy a notar para casi nada a 4k rt ultra que es a lo que yo juego, de aqui a 2 años vendo ese 7600x por 100 pavos y me pillo el 9600x de turno o el que sea.
pakolo1977 escribió:Lo único que me tienta a día de hoy para renovar algo en la torre es cambiar el 5800x por el 5800x3d. Cada día que pasa menos me tienta.

Cambiar micro, placa base y memoria solamente para notar algo que suben los cuadros mínimos, costando la renovación más de los 350 euros que vale el 5800x3d, directamente ni me tienta, no lo voy a hacer.

En parte todo esto es porque sé que de ahora a un par de años habrá procesadores en la calle que al lado del que tengo debería notarse a todos los niveles la mejoría sin tener que cambiar de gráfica.

Esos mismos procesadores serán los que alegarán algunos por aquí diciendo que ya no sirven los micros de ahora, cuando lo único que les habrá pasado es que ya no serán de la generación más actual.

Si un 13900k no le hace cuello de botella a una 4090 en 4k en el juego que sea, no se lo hace hoy y no se lo hará dentro de 2 años. Pero para algunos sí se lo hará justo al día siguiente del que salga el último i9 de intel.

El sibaritismo y la ultritis es lo que tiene. Además le exigen a sus bolsillos un esfuerzo que no se lo exigen a los que programan los juegos, para que los optimicen.

Y es que la industria se ha especializado sobre todo en hacernos sentir como una mierda a cualquiera que queramos gastarnos los dineros en pcs entusiastas. Da igual que te gastes 2000 euros en una 4090 que ya tienen listas los de nvidia cosas más potentes que esto, aunque ni sirvan para juegos. Obviamente la 5090 el año que viene hará que muchos piensen que sus 4090 de ahora no servirán para nada, cuando hasta el día anterior habrán jugado a los que les haya dado la gana sin demasiado problema.

Si hay tanto componente psicológico en todo esto, prefiero ser cabezón, aguantar un tiempo más con lo que tengo e ir cambiando componentes cuando a mi me dé la gana, no cuando me lo diga alguien que ni me conoce, se cree que es mejor que yo porque tiene el ordenador más grande y le entra el complejo de nuevo cuando entro a decir que me he gastado X pasta en comprar lo que sea y me he puesto a su nivel.

Probablemente yo renovaré el micro, placa y módulos de memoria tiempo antes de que el que tengo me sea un problema para poder jugar con esta gráfica. Me da igual que los cuadros mínimos sean algo más bajos que si tuviera un i9 de intel o el 7800x3d que está por salir, porque stuttering no tengo en ningún caso y es quitar el afterburner de la pantalla para poderme concentrar en el juego en si, en menos de un minuto me importa entre cero y una mierda tener los cuadros mínimos por debajo de alguien con un micro con más ipc.

PD1: Tengo el pálpito de que cuando llegue el día 11 de Abril, con el parche del RT overdrive del cyberpunk 2077, al poner el juego en 4k un 5800x va a dar exactamente lo mismo que un 13900k o un 7800x3d.

Yo no haría ese cambio.

@par
Has hecho buena compra.El 7700X...para qué?
pakolo1977 escribió:Y es que la industria se ha especializado sobre todo en hacernos sentir como una mierda a cualquiera que queramos gastarnos los dineros en pcs entusiastas. Da igual que te gastes 2000 euros en una 4090 que ya tienen listas los de nvidia cosas más potentes que esto, aunque ni sirvan para juegos. Obviamente la 5090 el año que viene hará que muchos piensen que sus 4090 de ahora no servirán para nada, cuando hasta el día anterior habrán jugado a los que les haya dado la gana sin demasiado problema.

XD Teneis cada cosa....asi ha sido siempre, cosas nuevas que salen cada 6 meses. Asi que aquel que necesite subirse la autoestima a base de tener el mejor hardware, pues va a gastar un monton de dinero. [sonrisa]
@parh acabo de pedir ese cooler, que buena pinta tiene y por lo que parece se monta casi solo...
Hablando de GPUs y consumos...

Yo llevo desde la epoca que salio la GTX 1080ti con una de ellas, el modelo Aorus la cual recomiendan fuente de 600w y en mi caso desde aquel entonces montada en una placa Asus (no recuerdo modelo, pero era de las gamas medias bajas menos de 80€) con cpu i5 6600k con OC (actualmente un 10400f) y con una fuente Sharkoon plus gold de 500w.
Muchos años en 3x1080p y actualmente con 3x1440p...

A punto de cambiar ya mismo, pero a dia de hoy ahi sigue aguantando sin ningun cuelgue ni cosas raras por falta W.

Quizas las marcas recomiendan 1000w para curarse en salud, porque habra quien monte una de 1000w como recomiendan, pero de marca hacendado con una eficiencia de risa que en comparacion, otra de 600w decente, esta rinde igual o incluso mejor....

[beer]
@pakolo1977 se esta poniendo muy esnobista el tema...
A ver chic@s, que tengo un lio tremendo. Es posible que me haga con esta gráfica: https://www.pccomponentes.com/pny-gefor ... dr6x-dlss3 . He estado mirando en la página del fabricante y tiene un TDP de 320.

Tengo una fuente de 750 Una thermatake 80 Gold, que parece el mínimo requerido para que funcione así que por ese lado creo que no va a haber problema (Ya que tampoco tengo demasiadas cosas conectadas).

Mi duda viene cuando veo el cable de 16 pines que va de ese conector a 3 de 8 pines. Mi fuente solo tiene 2 conectores de 8 pines así que solo podría conectar 2 en el pulpo. Por lo que veo cada cable provee 150W de potencia y el PCI express 75W (En mi caso PCI 3.0). Con lo cual sumarian 375W que creo serían suficientementes para los 320 de TDP de la gráfica.

La pregunta es, hay que conectar obigatoriamente los 3? Pensais que me podría quedar corto? No se si se me ha escapado algo.

Un saludo y gracias por adelantado.
notbad escribió:A ver chic@s, que tengo un lio tremendo. Es posible que me haga con esta gráfica: https://www.pccomponentes.com/pny-gefor ... dr6x-dlss3 . He estado mirando en la página del fabricante y tiene un TDP de 320.

Tengo una fuente de 750 Una thermatake 80 Gold, que parece el mínimo requerido para que funcione así que por ese lado creo que no va a haber problema (Ya que tampoco tengo demasiadas cosas conectadas).

Mi duda viene cuando veo el cable de 16 pines que va de ese conector a 3 de 8 pines. Mi fuente solo tiene 2 conectores de 8 pines así que solo podría conectar 2 en el pulpo. Por lo que veo cada cable provee 150W de potencia y el PCI express 75W (En mi caso PCI 3.0). Con lo cual sumarian 375W que creo serían suficientementes para los 320 de TDP de la gráfica.

La pregunta es, hay que conectar obigatoriamente los 3? Pensais que me podría quedar corto? No se si se me ha escapado algo.

Un saludo y gracias por adelantado.


Yo conectaria los 3, es raro que una fuente de 750 solo tenga dos, la mia, una evga supernova g2 tiene 4 y la corsair sf750 que uso actualmente tambien tiene 4.
colado escribió:
notbad escribió:A ver chic@s, que tengo un lio tremendo. Es posible que me haga con esta gráfica: https://www.pccomponentes.com/pny-gefor ... dr6x-dlss3 . He estado mirando en la página del fabricante y tiene un TDP de 320.

Tengo una fuente de 750 Una thermatake 80 Gold, que parece el mínimo requerido para que funcione así que por ese lado creo que no va a haber problema (Ya que tampoco tengo demasiadas cosas conectadas).

Mi duda viene cuando veo el cable de 16 pines que va de ese conector a 3 de 8 pines. Mi fuente solo tiene 2 conectores de 8 pines así que solo podría conectar 2 en el pulpo. Por lo que veo cada cable provee 150W de potencia y el PCI express 75W (En mi caso PCI 3.0). Con lo cual sumarian 375W que creo serían suficientementes para los 320 de TDP de la gráfica.

La pregunta es, hay que conectar obigatoriamente los 3? Pensais que me podría quedar corto? No se si se me ha escapado algo.

Un saludo y gracias por adelantado.


Yo conectaria los 3, es raro que una fuente de 750 solo tenga dos, la mia, una evga supernova g2 tiene 4 y la corsair sf750 que uso actualmente tambien tiene 4.

Si tuviera 3 obviamente conectaría 3 :). Lo que no quiero es cambiar la fuente si no es necesario.

Esto es lo que la thermaltake me ofrece:

Imagen

Un saludo.
notbad escribió:A ver chic@s, que tengo un lio tremendo. Es posible que me haga con esta gráfica: https://www.pccomponentes.com/pny-gefor ... dr6x-dlss3 . He estado mirando en la página del fabricante y tiene un TDP de 320.

Tengo una fuente de 750 Una thermatake 80 Gold, que parece el mínimo requerido para que funcione así que por ese lado creo que no va a haber problema (Ya que tampoco tengo demasiadas cosas conectadas).

Mi duda viene cuando veo el cable de 16 pines que va de ese conector a 3 de 8 pines. Mi fuente solo tiene 2 conectores de 8 pines así que solo podría conectar 2 en el pulpo. Por lo que veo cada cable provee 150W de potencia y el PCI express 75W (En mi caso PCI 3.0). Con lo cual sumarian 375W que creo serían suficientementes para los 320 de TDP de la gráfica.

La pregunta es, hay que conectar obigatoriamente los 3? Pensais que me podría quedar corto? No se si se me ha escapado algo.

Un saludo y gracias por adelantado.


Tu fuente tiene 2 lineas pci-e con 2 conectores de 6+2 por linea (cable) o sea 4 conectores, te sobra incluso 1 para esta gráfica
notbad escribió:
colado escribió:
notbad escribió:A ver chic@s, que tengo un lio tremendo. Es posible que me haga con esta gráfica: https://www.pccomponentes.com/pny-gefor ... dr6x-dlss3 . He estado mirando en la página del fabricante y tiene un TDP de 320.

Tengo una fuente de 750 Una thermatake 80 Gold, que parece el mínimo requerido para que funcione así que por ese lado creo que no va a haber problema (Ya que tampoco tengo demasiadas cosas conectadas).

Mi duda viene cuando veo el cable de 16 pines que va de ese conector a 3 de 8 pines. Mi fuente solo tiene 2 conectores de 8 pines así que solo podría conectar 2 en el pulpo. Por lo que veo cada cable provee 150W de potencia y el PCI express 75W (En mi caso PCI 3.0). Con lo cual sumarian 375W que creo serían suficientementes para los 320 de TDP de la gráfica.

La pregunta es, hay que conectar obigatoriamente los 3? Pensais que me podría quedar corto? No se si se me ha escapado algo.

Un saludo y gracias por adelantado.


Yo conectaria los 3, es raro que una fuente de 750 solo tenga dos, la mia, una evga supernova g2 tiene 4 y la corsair sf750 que uso actualmente tambien tiene 4.

Si tuviera 3 obviamente conectaría 3 :). Lo que no quiero es cambiar la fuente si no es necesario.

Esto es lo que la thermaltake me ofrece:

Imagen

Un saludo.

Tienes para enchufrala .Yo veo 3 pcie ...el de cpu te irá con el de 10.
Te sobran 3.
Yo tengo mi 4080 conectada solo en 2 pcie y ningún problema, de hecho, tuve una 3090 que me dejaron unas semanas y la tenía con un pcie solo [+risas] hasta que leí que era malo y lo cambié.
hh1 escribió:
notbad escribió:
colado escribió:
Yo conectaria los 3, es raro que una fuente de 750 solo tenga dos, la mia, una evga supernova g2 tiene 4 y la corsair sf750 que uso actualmente tambien tiene 4.

Si tuviera 3 obviamente conectaría 3 :). Lo que no quiero es cambiar la fuente si no es necesario.

Esto es lo que la thermaltake me ofrece:

Imagen

Un saludo.

Tienes para enchufrala .Yo veo 3 pcie ...el de cpu te irá con el de 10.
Te sobran 3.


Ya, pero imagino que podré usar 2 cables (1 usando sus 2 conectores a la gráfica) y usando un conector del segundo. Quedando un conector del segundo libre. Verdad? Es que el otro de 8 lo tengo ya conectado a la placa para la CPU.

Un saludo.
@notbad No hace falta que lleve 3 separados, yo la tengo conectada igual (en dos dobles y me sobra uno) y no pasa nada.
_anVic_ está baneado por "clon de usuario baneado"
HaGeK escribió:@_anVic_ lo que tu quieras y donde quieras, cariño.

Si yo estoy feliz con lo que tengo. Es mas. hasta ha superado mis expectativas. Pero que hay cosas que no puedo dejar pasar, pese a quien le pese! Y que conste que te sigo y te doy la razon en el 90% de los casos, pero no hay que dejarse caer en el fanatismo.

PD: Estoy dispuesto a pasar las pruebas que digais bajo las condiciones que digais, que conste!



Mmmm ....has pasado ya el port royal con la 4080?....
yosu888 escribió:De gurús nada, no os flipeis, que queréis defender vuestras tesis de UV y fuentes justas es un problema muy serio que tenéis y confundis a la gente que no sabe.
Lo primero que una 4090 no la puedes emparejar con un 5800x, es como tener un Ferrari con ruedas desgastadas,y no me vengáis que si en 4k no se nota, en 4k se nota el cuello de botella comprobado por mi mismo, en el spiderman por ejemplo, y ya con un 9900k ni te cuento.
Lo segundo que recomendar una fuente de 750w para una 4090 es de traca,luego cuando el usuario venga por aquí de nuevo a decir que no sabe que le pasa a mi pc, que me crashean los juegos, que se apaga solo etc.....

Lo más importante en un pc es la estabilidad(fuente) y eso de ir rácano en potencia conmigo no va,pk se de primera mano los problemas de ir justo con una fuente.

Es que creo que pasáis del blanco al negro, y por en medio hay grises.

Que se note en el Spiderman a 4k altos fps ,no lo niego.
Hasta ahí, vale.
-Pero... cuánto se nota?
-Tan mal va con un 9900k o un 5800X?
-En cuantos juegos pasa como el Spiderman?

Es que ,según lo cuentas ,prace que pasa aen todos los juegos y lo hace injugable con un 5800X y un 9900K,y eso ,no es verdad .


Y de un 9900k ,aún ya es un caso más "boderline" poruqé ya cuenta con 4 años ,pero un 5800X ...

Esto es un poco como la VRAM.
Cuando se habla de que va justa y tal, parece que si no llega ,es que la gráfica ya es un pisapapeles que no vale para jugar.

Y la cuestión es...merece la pena ,teniendo estas CPUs ,realizar esa inversión para CPUs top?

Pues yo creo ,que depende de las circunstancias,y que,si no te sobra la pasta,no.

Dais por hecho, que quien tiene una 4090, tiene presupuesto ilimitado.No siempre es así.
Hay gente que hace un esfuerzo por llegar a ella ,y luego no le da para más.

O gente ,como es mi caso, que no le gusta despilfarrar por un 4-7-10% más de rendimiento y netrwle para ello 300-400-500€ extras ,porque lo veo ilógico.

O mi caso actual.A caso juego mal y me rinde mal la 4090 con u un 12600?No.
Que jugaría mejor con un 13600K?Sí.
Pero ...merece la pena ganarle 5-10% de rendimiento en 1440p (en algunos juegos ni eso),teniendo que poner 200€?Yo creo que no

Y otras veces ,dentro de eso ,hay cosas como que se pillan un 13900k y una 4080.No pillan una 4080 porque ya no les da para ello .
Y yo pregunto...No es mejor un 13500+4090 que un 13900K +4080?Pues claro que sí..
En ese caso ,la diferencia de rendimiento entre CPUs es baja ,pero la diferencia entra GPUs es notoria.

Pues hay gente ,que por miedo a ese cuello de botella ,se pilla la cpu top y se deja de una gráfica mejor ,pensando que a menos cuello de botella ,más rendimiento, cuando eso ,es falso.
_anVic_ está baneado por "clon de usuario baneado"
hh1 escribió:
yosu888 escribió:De gurús nada, no os flipeis, que queréis defender vuestras tesis de UV y fuentes justas es un problema muy serio que tenéis y confundis a la gente que no sabe.
Lo primero que una 4090 no la puedes emparejar con un 5800x, es como tener un Ferrari con ruedas desgastadas,y no me vengáis que si en 4k no se nota, en 4k se nota el cuello de botella comprobado por mi mismo, en el spiderman por ejemplo, y ya con un 9900k ni te cuento.
Lo segundo que recomendar una fuente de 750w para una 4090 es de traca,luego cuando el usuario venga por aquí de nuevo a decir que no sabe que le pasa a mi pc, que me crashean los juegos, que se apaga solo etc.....

Lo más importante en un pc es la estabilidad(fuente) y eso de ir rácano en potencia conmigo no va,pk se de primera mano los problemas de ir justo con una fuente.

Es que creo que pasáis del blanco al negro, y por en medio hay grises.

Que se note en el Spiderman a 4k altos fps ,no lo niego.
Hasta ahí, vale.
-Pero... cuánto se nota?
-Tan mal va con un 9900k o un 5800X?
-En cuantos juegos pasa como el Spiderman?

Es que ,según lo cuentas ,prace que pasa aen todos los juegos y lo hace injugable con un 5800X y un 9900K,y eso ,no es verdad .


Y de un 9900k ,aún ya es un caso más "boderline" poruqé ya cuenta con 4 años ,pero un 5800X ...

Esto es un poco como la VRAM.
Cuando se habla de que va justa y tal, parece que si no llega ,es que la gráfica ya es un pisapapeles que no vale para jugar.

Y la cuestión es...merece la pena ,teniendo estas CPUs ,realizar esa inversión para CPUs top?

Pues yo creo ,que depende de las circunstancias,y que,si no te sobra la pasta,no.

Dais por hecho, que quien tiene una 4090, tiene presupuesto ilimitado.No siempre es así.
Hay gente que hace un esfuerzo por llegar a ella ,y luego no le da para más.

O gente ,como es mi caso, que no le gusta despilfarrar por un 4-7-10% más de rendimiento y netrwle para ello 300-400-500€ extras ,porque lo veo ilógico.

O mi caso actual.A caso juego mal y me rinde mal la 4090 con u un 12600?No.
Que jugaría mejor con un 13600K?Sí.
Pero ...merece la pena ganarle 5-10% de rendimiento en 1440p (en algunos juegos ni eso),teniendo que poner 200€?Yo creo que no

Y otras veces ,dentro de eso ,hay cosas como que se pillan un 13900k y una 4080.No pillan una 4080 porque ya no les da para ello .
Y yo pregunto...No es mejor un 13500+4090 que un 13900K +4080?Pues claro que sí..
En ese caso ,la diferencia de rendimiento entre CPUs es baja ,pero la diferencia entra GPUs es notoria.

Pues hay gente ,que por miedo a ese cuello de botella ,se pilla la cpu top y se deja de una gráfica mejor ,pensando que a menos cuello de botella ,más rendimiento, cuando eso ,es falso.


Es que va perfectamente el spiderman remasatered a 4k con el 9900k tanto capado a 120fps con v-sync como por encima de 120 fps con fast sync



Minuto 2:44 activo RT
Minuto 5:14 a 8K

Que quieres más de 120fps fps no hay problema tampoco.



Es muy fácil criticar y decir tal micro es una mierda , te hace cuello por todos lados, etc...que si es injugable en tal y tal juego..., Pues ahí tienes una muestra de que para nada es así. Es perfectamente jugable y fluido. a 4k ultra .

Yo te diría que a día de hoy el sweet spot en cuanto a combo para acompañar una 4090 en relación calidad/precio/ rendimiento/eficiencia es el ryzen 7700, que lo tienes por 350 eruos, con una placa de entre 240 y 280 eruos, acompañado de 32 gb de ram cl 36 a 6000mhz por 158 euros .

Por un total de 750 Euros aprox. te montas un pepino que se queda solo a un 4 % a 1080p de un 13900k con memos más dopadas, que vale un pastizal , consume una barbaridad y te vas a comer con patatas la placa cuando salga meteor lake. Por contra la placa del 7700 te valdrá para la serie 8000.

Imagen
_anVic_ escribió:
hh1 escribió:
yosu888 escribió:De gurús nada, no os flipeis, que queréis defender vuestras tesis de UV y fuentes justas es un problema muy serio que tenéis y confundis a la gente que no sabe.
Lo primero que una 4090 no la puedes emparejar con un 5800x, es como tener un Ferrari con ruedas desgastadas,y no me vengáis que si en 4k no se nota, en 4k se nota el cuello de botella comprobado por mi mismo, en el spiderman por ejemplo, y ya con un 9900k ni te cuento.
Lo segundo que recomendar una fuente de 750w para una 4090 es de traca,luego cuando el usuario venga por aquí de nuevo a decir que no sabe que le pasa a mi pc, que me crashean los juegos, que se apaga solo etc.....

Lo más importante en un pc es la estabilidad(fuente) y eso de ir rácano en potencia conmigo no va,pk se de primera mano los problemas de ir justo con una fuente.

Es que creo que pasáis del blanco al negro, y por en medio hay grises.

Que se note en el Spiderman a 4k altos fps ,no lo niego.
Hasta ahí, vale.
-Pero... cuánto se nota?
-Tan mal va con un 9900k o un 5800X?
-En cuantos juegos pasa como el Spiderman?

Es que ,según lo cuentas ,prace que pasa aen todos los juegos y lo hace injugable con un 5800X y un 9900K,y eso ,no es verdad .


Y de un 9900k ,aún ya es un caso más "boderline" poruqé ya cuenta con 4 años ,pero un 5800X ...

Esto es un poco como la VRAM.
Cuando se habla de que va justa y tal, parece que si no llega ,es que la gráfica ya es un pisapapeles que no vale para jugar.

Y la cuestión es...merece la pena ,teniendo estas CPUs ,realizar esa inversión para CPUs top?

Pues yo creo ,que depende de las circunstancias,y que,si no te sobra la pasta,no.

Dais por hecho, que quien tiene una 4090, tiene presupuesto ilimitado.No siempre es así.
Hay gente que hace un esfuerzo por llegar a ella ,y luego no le da para más.

O gente ,como es mi caso, que no le gusta despilfarrar por un 4-7-10% más de rendimiento y netrwle para ello 300-400-500€ extras ,porque lo veo ilógico.

O mi caso actual.A caso juego mal y me rinde mal la 4090 con u un 12600?No.
Que jugaría mejor con un 13600K?Sí.
Pero ...merece la pena ganarle 5-10% de rendimiento en 1440p (en algunos juegos ni eso),teniendo que poner 200€?Yo creo que no

Y otras veces ,dentro de eso ,hay cosas como que se pillan un 13900k y una 4080.No pillan una 4080 porque ya no les da para ello .
Y yo pregunto...No es mejor un 13500+4090 que un 13900K +4080?Pues claro que sí..
En ese caso ,la diferencia de rendimiento entre CPUs es baja ,pero la diferencia entra GPUs es notoria.

Pues hay gente ,que por miedo a ese cuello de botella ,se pilla la cpu top y se deja de una gráfica mejor ,pensando que a menos cuello de botella ,más rendimiento, cuando eso ,es falso.


Es que va perfectamente el spiderman remasatered a 4k con el 9900k tanto capado a 120fps con v-sync como por encima de 120 fps con fast sync



Minuto 2:44 activo RT
Minuto 5:14 a 8K

Que quieres más de 120fps fps no hay problema tampoco.



Es muy fácil criticar y decir tal micro es una mierda , te hace cuello por todos lados, etc...que si es injugable en tal y tal juego..., Pues ahí tienes una muestra de que para nada es así. Es perfectamente jugable y fluido. a 4k ultra .

Yo te diría que a día de hoy el sweet spot en cuanto a combo para acompañar una 4090 en relación calidad/precio/ rendimiento/eficiencia es el ryzen 7700, que lo tienes por 350 eruos, con una placa de entre 240 y 280 eruos, acompañado de 32 gb de ram cl 36 a 6000mhz por 158 euros .

Por un total de 750 Euros aprox. te montas un pepino que se queda solo a un 4 % a 1080p de un 13900k con memos más dopadas, que vale un pastizal , consume una barbaridad y te vas a comer con patatas la placa cuando salga meteor lake. Por contra la placa del 7700 te valdrá para la serie 8000.

Imagen

Y yo iría más allá...Con un 7600X vas perfecto y en bicicleta.Más barato y casi igual que el 7700X.

¿Tienes por ahí ese misma comparatiiva de cpus con la 4090 ,a 1440p y 4K?
Es para ver la realidad "real" ,ya que no creo que nadie juegue a 1080p con una 4090.
Es que nos puede dar la risa con las diferencias que hay entre cpus top con otras que valen el triple o la mitad...
14371 respuestas