[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

_revan_ escribió:
hh1 escribió:
_revan_ escribió:¿Una fuente de 850 vale para una 4090 o hay que tirarse por una de 1200? 🤔

Hay alguna 4090 funcionando con fuentes de 650w...

Pero por si acaso, tener una fuente de mas potencia no?

De todas formas, me queda claro, con una de 850 alcanza, gracias por la aclaración 🙌🏻


Yo tengo la Corsair RM850 en la PNY 4090 y muy contento de momento, tira sin problema. Lo que es importante es una fuente con certificación gold para asegurarte eficiencia.
Por aquí otro con una inno3d 4090 x3 oc y una thermaltake de 850w.

Habría ido por una fuente que diera más watios si tuviera montado un micro superior al que tengo, como la gráfica tiene el power limit en 450 watios bloqueado y el ryzen 5800x no consume más de 140 watios, la vezque he visto consumir más a la torre fueron unos 620 watios de forma puntual. El consumo normal en juegos muy muy demandantes está alrededor de los 500 watios.
xineloeol escribió:
_revan_ escribió:
hh1 escribió:Hay alguna 4090 funcionando con fuentes de 650w...

Pero por si acaso, tener una fuente de mas potencia no?

De todas formas, me queda claro, con una de 850 alcanza, gracias por la aclaración 🙌🏻


Yo tengo la Corsair RM850 en la PNY 4090 y muy contento de momento, tira sin problema. Lo que es importante es una fuente con certificación gold para asegurarte eficiencia.


estas contento con tu 4090 pny? tambien me he pillado una en la oferta de pc componentes. El lunes me llega.
hh1 escribió:
Lince_SPAIN escribió:
hh1 escribió:
No me ha tocado buen silicio
Me permite 1000mV @ 2840mhz, pero si subo con ese voltaje a 2860 mhz...adiós.
Y con el de 990Mv @ 2820 mhz, tampoco.
940mv @ 2760 mhz...tampoco...


Qué raro, has mirado lo que te marca el punto que te comenté en la curva stock del Afterburner?

Dependiendo de ese dato te diré qué puedes probar en la fuente y en la propia gráfica, porque por muy del montón que sea el silicio los 2820 a 990mV los tiene que dar sí o sí por el margen con el que vienen todas las gráficas de fábrica. También me parece raro que a pesar de meterle 25mV extras al core te saliera inestabilidad a 3000 MHz.

Por otra parte os animo de nuevo a probar los undervolts y la gráfica en general aquí:https://msikombustor.com/ (92 MB)

La primera prueba de la lista en el preset benchmark a 1440p utiliza todo el TDP que tu tarjeta puede entregar. Con la gráfica 100% stock me da 147fps, se podría decir que con todo el stress que mete puedes determinar no solo la calidad del silicio sino también del PCB y las memorias.

Si alguien quiere comparar con mi resultado: MSI Kombustor 1440p preset MSI-01, RTX 4080 stock

En 1100mV está a 2850mhz de stock.

Ahora hago la prueba. [beer]

No sé si la cpu tiene mucho que ver pero a mí me da menos que a ti, algo que ya suponía.
https://gpuscore.top/msi/kombustor/show.php?id=1401222

Ya te digo que no ha salido nada buena.

Esto con 1000mV@2835mhz:
https://gpuscore.top/msi/kombustor/show.php?id=1401239

PD: De hecho, hay algo raro.

En The Evil West la 3080TI me daba picos de 370 fps.Con esta nunca he llegado a eso en la misma zona.
Ahora jugando a Hunt Showdown con un colega, él tiene la 3080Ti y en zonas va él a 180fps y yo a 145fps.
Muy muy raro todo.
Sin embargo, en APT Requiem, sí he notado ese extra de más desde el inicio.

No sé qué es lo que pasa.Y da igual que le meta UV o que lo deje de stock.



Sin mirar nada y tirarme a la piscina con el comentario…puede ser que tengas algo de cuello de botella? Porque es muy raro que tengas igual o inferior rendimiento que con la 3080 Ti. Te ha salido rebelde la 4080 [+risas]

Respecto al DLSS3, cuantos juegos lo incluyen…a ver si el lunes me llega ya la 4070Ti, que
life informática
parece ser que el envío rápido no es una de sus bondades XD
KindapearHD escribió:
hh1 escribió:
Lince_SPAIN escribió:
Qué raro, has mirado lo que te marca el punto que te comenté en la curva stock del Afterburner?

Dependiendo de ese dato te diré qué puedes probar en la fuente y en la propia gráfica, porque por muy del montón que sea el silicio los 2820 a 990mV los tiene que dar sí o sí por el margen con el que vienen todas las gráficas de fábrica. También me parece raro que a pesar de meterle 25mV extras al core te saliera inestabilidad a 3000 MHz.

Por otra parte os animo de nuevo a probar los undervolts y la gráfica en general aquí:https://msikombustor.com/ (92 MB)

La primera prueba de la lista en el preset benchmark a 1440p utiliza todo el TDP que tu tarjeta puede entregar. Con la gráfica 100% stock me da 147fps, se podría decir que con todo el stress que mete puedes determinar no solo la calidad del silicio sino también del PCB y las memorias.

Si alguien quiere comparar con mi resultado: MSI Kombustor 1440p preset MSI-01, RTX 4080 stock

En 1100mV está a 2850mhz de stock.

Ahora hago la prueba. [beer]

No sé si la cpu tiene mucho que ver pero a mí me da menos que a ti, algo que ya suponía.
https://gpuscore.top/msi/kombustor/show.php?id=1401222

Ya te digo que no ha salido nada buena.

Esto con 1000mV@2835mhz:
https://gpuscore.top/msi/kombustor/show.php?id=1401239

PD: De hecho, hay algo raro.

En The Evil West la 3080TI me daba picos de 370 fps.Con esta nunca he llegado a eso en la misma zona.
Ahora jugando a Hunt Showdown con un colega, él tiene la 3080Ti y en zonas va él a 180fps y yo a 145fps.
Muy muy raro todo.
Sin embargo, en APT Requiem, sí he notado ese extra de más desde el inicio.

No sé qué es lo que pasa.Y da igual que le meta UV o que lo deje de stock.



Sin mirar nada y tirarme a la piscina con el comentario…puede ser que tengas algo de cuello de botella? Porque es muy raro que tengas igual o inferior rendimiento que con la 3080 Ti. Te ha salido rebelde la 4080 [+risas]

Respecto al DLSS3, cuantos juegos lo incluyen…a ver si el lunes me llega ya la 4070Ti, que
life informática
parece ser que el envío rápido no es una de sus bondades XD

Lo he pensado pero no me dio por fijarme.
Pero joder...con un 12600 no deberís.
Es cierto que ese juego tira bastante de cpu.
Aún así, no es para que dé 40fps menos que mi amigo con un 13600k y una 3080Ti.
Debería dar más.

El caso es que al salirme del juego, el pc iba lento.
Con retardo de 3-4-5 segundos a cada cosa que clickaba.
Puede que tras hacer bastantes bench antes de jugar,algo se haya quedado mal.

He renunciado, he puesto Metro Exodus con RT en ultra y como un jodido tiro
Viendo vídeos de este juego cmde otras 4089, va similar.
Dónde se encuentra el benchmarks de este juego?

Con DLSS3 sólo he probado APT Requiem y era una salvajada.215fps o así al inicio
Yo no notaba absolutamente nada de retardo.

Paciencia ...nos puede el ansia cuando compramos .

A mí por fin me ha contestado Corsair 8 días después y vía Twitter...por email... nanai.
Telita ...
Unos 2600 euretes ese bicho, por lo menos
hh1 escribió:No sé si la cpu tiene mucho que ver pero a mí me da menos que a ti, algo que ya suponía.
https://gpuscore.top/msi/kombustor/show.php?id=1401222

Ya te digo que no ha salido nada buena.

Esto con 1000mV@2835mhz:
https://gpuscore.top/msi/kombustor/show.php?id=1401239



2850 a 1100mV no es silicio malo, y menos si es una Founders Edition, mira la lista de tiers de silicio en la serie 4000:

1- 2955 <--- extremadamente raro
2- 2940
3- 2925
4- 2910
5- 2895
6- 2880
7- 2865
8- 2850
9- 2835
10- 2820
11- 2805
12- 2790
13- 2775 <-- mínimo gráficas FE y modelos de referencia

mi 4080 con un tier "2910" en la BIOS Silent se pone con los ventiladores apagados a 2865, comienza a 2880 y pasando de los 50 y pico grados dando mucha caña se baja a 2865 y ahí se queda, pero con la BIOS gaming se suele quedar estable a 2895 con el ventilador al 30%. Son las BIOS más recientes para mi modelo Suprim-X.

He hecho una prueba en lugar de stock la he puesto a 2865 a 1v que sé que lo da de sobra y me ha dado la misma puntuación más o menos que en stock, 148 fps (1 fps más). Así que realmente si el PCB es medio bueno y aguanta la entrega de potencia entonces la tarjeta no pierde rendimiento aunque bajes el voltaje,si la frecuencia se mantiene estable vas a ganar rendimiento o vas a ahorrar energía... y normalmente harás las dos cosas.

aquí la prueba, he puesto mi nick al subirlo Lince_SPAIN: MSI Kombustor 1440p 100% TDP Stress Test RTX 4080

Es un 7 o un 8% más rápido que el resultado que tú has pegado y las diferencias a simple vista son el procesador (que no debería influir si ambas tarjetas van clavadas al 100% de uso) y el sistema operativo, ya te digo que por silicio no es porque entre 2910 y 2850 no hay un 7%, igual puede ser el PCB, qué modelo de 4080 es la tuya? Por lo demás en juegos no debería notarse diferencia alguna.
xineloeol escribió:
_revan_ escribió:
hh1 escribió:Hay alguna 4090 funcionando con fuentes de 650w...

Pero por si acaso, tener una fuente de mas potencia no?

De todas formas, me queda claro, con una de 850 alcanza, gracias por la aclaración 🙌🏻


Yo tengo la Corsair RM850 en la PNY 4090 y muy contento de momento, tira sin problema. Lo que es importante es una fuente con certificación gold para asegurarte eficiencia.


Realmente no es lo mas importante, la diferencia entre la certificacion gold y silver es del 2% y gold con bronce un 5%, vamos, irrisorio. Lo importante es que sea una fuente de calidad acorde al resto del equipo, vamos, yo no pondria una grafica de 2000€ con una fuente de menos de 150€ y con calidad contrastada.
Lince_SPAIN escribió:
hh1 escribió:No sé si la cpu tiene mucho que ver pero a mí me da menos que a ti, algo que ya suponía.
https://gpuscore.top/msi/kombustor/show.php?id=1401222

Ya te digo que no ha salido nada buena.

Esto con 1000mV@2835mhz:
https://gpuscore.top/msi/kombustor/show.php?id=1401239



2850 a 1100mV no es silicio malo, y menos si es una Founders Edition, mira la lista de tiers de silicio en la serie 4000:

1- 2955 <--- extremadamente raro
2- 2940
3- 2925
4- 2910
5- 2895
6- 2880
7- 2865
8- 2850
9- 2835
10- 2820
11- 2805
12- 2790
13- 2775 <-- mínimo gráficas FE y modelos de referencia

mi 4080 con un tier "2910" en la BIOS Silent se pone con los ventiladores apagados a 2865, comienza a 2880 y pasando de los 50 y pico grados dando mucha caña se baja a 2865 y ahí se queda, pero con la BIOS gaming se suele quedar estable a 2895 con el ventilador al 30%. Son las BIOS más recientes para mi modelo Suprim-X.

He hecho una prueba en lugar de stock la he puesto a 2865 a 1v que sé que lo da de sobra y me ha dado la misma puntuación más o menos que en stock, 148 fps (1 fps más). Así que realmente si el PCB es medio bueno y aguanta la entrega de potencia entonces la tarjeta no pierde rendimiento aunque bajes el voltaje,si la frecuencia se mantiene estable vas a ganar rendimiento o vas a ahorrar energía... y normalmente harás las dos cosas.

aquí la prueba, he puesto mi nick al subirlo Lince_SPAIN: [https://gpuscore.top/msi/kombustor/show.php?id=1401958]MSI Kombustor 1440p STRESS TEST[/url]

Es un 7 o un 8% más rápido que el resultado que tú has pegado y las diferencias a simple vista son el procesador (que no debería influir si ambas tarjetas van clavadas al 100% de uso) y el sistema operativo, ya te digo que por silicio no es porque entre 2910 y 2850 no hay un 7%, igual puede ser el PCB, qué modelo de 4080 es la tuya? Por lo demás en juegos no debería notarse diferencia alguna.

No tengo una FE .Es una Gigabyte Eagle.

Pues no paro de ver a gente con 4080 y todos con mejores pruebas que yo.
Que luego la diferencia es irrisoria ,vale,pero...

En cuanto a lo del Hint,me da que se quedó el pc "raro" tras los variados bench que hice.

Mañana lo pruebo otra vez y seguro que va mejor.

Gracias [beer]
hh1 escribió:
Lince_SPAIN escribió:
hh1 escribió:No sé si la cpu tiene mucho que ver pero a mí me da menos que a ti, algo que ya suponía.
https://gpuscore.top/msi/kombustor/show.php?id=1401222

Ya te digo que no ha salido nada buena.

Esto con 1000mV@2835mhz:
https://gpuscore.top/msi/kombustor/show.php?id=1401239



2850 a 1100mV no es silicio malo, y menos si es una Founders Edition, mira la lista de tiers de silicio en la serie 4000:

1- 2955 <--- extremadamente raro
2- 2940
3- 2925
4- 2910
5- 2895
6- 2880
7- 2865
8- 2850
9- 2835
10- 2820
11- 2805
12- 2790
13- 2775 <-- mínimo gráficas FE y modelos de referencia

mi 4080 con un tier "2910" en la BIOS Silent se pone con los ventiladores apagados a 2865, comienza a 2880 y pasando de los 50 y pico grados dando mucha caña se baja a 2865 y ahí se queda, pero con la BIOS gaming se suele quedar estable a 2895 con el ventilador al 30%. Son las BIOS más recientes para mi modelo Suprim-X.

He hecho una prueba en lugar de stock la he puesto a 2865 a 1v que sé que lo da de sobra y me ha dado la misma puntuación más o menos que en stock, 148 fps (1 fps más). Así que realmente si el PCB es medio bueno y aguanta la entrega de potencia entonces la tarjeta no pierde rendimiento aunque bajes el voltaje,si la frecuencia se mantiene estable vas a ganar rendimiento o vas a ahorrar energía... y normalmente harás las dos cosas.

aquí la prueba, he puesto mi nick al subirlo Lince_SPAIN: [https://gpuscore.top/msi/kombustor/show.php?id=1401958]MSI Kombustor 1440p STRESS TEST[/url]

Es un 7 o un 8% más rápido que el resultado que tú has pegado y las diferencias a simple vista son el procesador (que no debería influir si ambas tarjetas van clavadas al 100% de uso) y el sistema operativo, ya te digo que por silicio no es porque entre 2910 y 2850 no hay un 7%, igual puede ser el PCB, qué modelo de 4080 es la tuya? Por lo demás en juegos no debería notarse diferencia alguna.

No tengo una FE .Es una Gigabyte Eagle.

Pues no paro de ver a gente con 4080 y todos con mejores pruebas que yo.
Que luego la diferencia es irrisoria ,vale,pero...

En cuanto a lo del Hint,me da que se quedó el pc "raro" tras los variados bench que hice.

Mañana lo pruebo otra vez y seguro que va mejor.

Gracias [beer]


Que esperabas cuando cogiste la gama mas baja de Gigabyte? por cierto, desinstalaste los drivers antiguos?
colado escribió:
hh1 escribió:
Lince_SPAIN escribió:
2850 a 1100mV no es silicio malo, y menos si es una Founders Edition, mira la lista de tiers de silicio en la serie 4000:

1- 2955 <--- extremadamente raro
2- 2940
3- 2925
4- 2910
5- 2895
6- 2880
7- 2865
8- 2850
9- 2835
10- 2820
11- 2805
12- 2790
13- 2775 <-- mínimo gráficas FE y modelos de referencia

mi 4080 con un tier "2910" en la BIOS Silent se pone con los ventiladores apagados a 2865, comienza a 2880 y pasando de los 50 y pico grados dando mucha caña se baja a 2865 y ahí se queda, pero con la BIOS gaming se suele quedar estable a 2895 con el ventilador al 30%. Son las BIOS más recientes para mi modelo Suprim-X.

He hecho una prueba en lugar de stock la he puesto a 2865 a 1v que sé que lo da de sobra y me ha dado la misma puntuación más o menos que en stock, 148 fps (1 fps más). Así que realmente si el PCB es medio bueno y aguanta la entrega de potencia entonces la tarjeta no pierde rendimiento aunque bajes el voltaje,si la frecuencia se mantiene estable vas a ganar rendimiento o vas a ahorrar energía... y normalmente harás las dos cosas.

aquí la prueba, he puesto mi nick al subirlo Lince_SPAIN: [https://gpuscore.top/msi/kombustor/show.php?id=1401958]MSI Kombustor 1440p STRESS TEST[/url]

Es un 7 o un 8% más rápido que el resultado que tú has pegado y las diferencias a simple vista son el procesador (que no debería influir si ambas tarjetas van clavadas al 100% de uso) y el sistema operativo, ya te digo que por silicio no es porque entre 2910 y 2850 no hay un 7%, igual puede ser el PCB, qué modelo de 4080 es la tuya? Por lo demás en juegos no debería notarse diferencia alguna.

No tengo una FE .Es una Gigabyte Eagle.

Pues no paro de ver a gente con 4080 y todos con mejores pruebas que yo.
Que luego la diferencia es irrisoria ,vale,pero...

En cuanto a lo del Hint,me da que se quedó el pc "raro" tras los variados bench que hice.

Mañana lo pruebo otra vez y seguro que va mejor.

Gracias [beer]


Que esperabas cuando cogiste la gama mas baja de Gigabyte? por cierto, desinstalaste los drivers antiguos?

Sí claro, hice formateo.

No creo que tenga mucho que ver la gama ,la verdad.
Tenía una 3080Ti FE y salió de escándalo.Con unos UV que ya quisieran otras bastante más caras.

Pero vamos ,que si está en la media ,pues ni tan mal.
Pero mi sensación, viendo los UV que publica la gente ,es que salió mala.

Parece ser que no es mala.
hh1 escribió:
colado escribió:
hh1 escribió:No tengo una FE .Es una Gigabyte Eagle.

Pues no paro de ver a gente con 4080 y todos con mejores pruebas que yo.
Que luego la diferencia es irrisoria ,vale,pero...

En cuanto a lo del Hint,me da que se quedó el pc "raro" tras los variados bench que hice.

Mañana lo pruebo otra vez y seguro que va mejor.

Gracias [beer]


Que esperabas cuando cogiste la gama mas baja de Gigabyte? por cierto, desinstalaste los drivers antiguos?

Sí claro, hice formateo.

No creo que tenga mucho que ver la gama ,la verdad.
Tenía una 3080Ti FE y salió de escándalo.Von unos UV que ya quisieran otras bastante más caras.


Y que tiene que ver las FE? que son gama baja? si tienen mejor pcb que la gran mayoria de graficas.
colado escribió:
hh1 escribió:
colado escribió:
Que esperabas cuando cogiste la gama mas baja de Gigabyte? por cierto, desinstalaste los drivers antiguos?

Sí claro, hice formateo.

No creo que tenga mucho que ver la gama ,la verdad.
Tenía una 3080Ti FE y salió de escándalo.Von unos UV que ya quisieran otras bastante más caras.


Y que tiene que ver las FE? que son gama baja? si tienen mejor pcb que la gran mayoria de graficas.

Pues que en yeoría las FE al ser las baratas ,eran peores.
Y nada más lejos de la realidad.

Yo está Eagle dudo que no tenga buen PCB.
De hecho, no creo que haya una 4080 con mal PCB.

Por ser Eagle no tiene que ser peor en PCB que otras.

Ojo, que no lo s3 ,pero no tiene porqué serlo.
Me.he inchado a ver videos y comparativas del dssl 3 con fg y la verdad me ha dejado gratamente sorprendido. Se ve increíble y practicamente ninguna pega
hh1 escribió:
colado escribió:
hh1 escribió:Sí claro, hice formateo.

No creo que tenga mucho que ver la gama ,la verdad.
Tenía una 3080Ti FE y salió de escándalo.Von unos UV que ya quisieran otras bastante más caras.


Y que tiene que ver las FE? que son gama baja? si tienen mejor pcb que la gran mayoria de graficas.

Pues que en yeoría las FE al ser las baratas ,eran peores.
Y nada más lejos de la realidad.

Yo está Eagle dudo que no tenga buen PCB.
De hecho, no creo que haya una 4080 con mal PCB.

Por ser Eagle no tiene que ser peor en PCB que otras.


No son baratas o caras, son el precio marcado por nvidia, y realmente las founder edition hasta las series 3000 solian ser las mas caras porque no se dictan por el mercado y tienen precio fijo.

Respecto a la Eagle, Gigabyte tiene 5 gamas en las 4080, ( ordenadas de mejor a peor: Xtreme, Master, Gaming, Aero y Eagle) y cada una con su version OC, la Eagle es la mas baja. Respecto a la Suprim de @Lince_SPAIN, el tiene la mejor gama dentro de MSI, es normal que dejen los mejores chips para las mejores ( y mas caras) gamas.

Yo no me rayaria con benchs y comparativas y la disfrutaria.
@hh1 no es mala, de silicio anda incluso muy bien teniendo en cuenta que es una gama asequible donde abundan los tiers 2790-2820, la cuestión por la que no aguanta los undervolts que el silicio debería darte (en teoría) es simplemente es por el PCB de la Eagle. Pero que no le des más vueltas, como has podido comprobar las diferencias realmente se ven en los benchmarks sintéticos y mientras no te pete la gráfica en modo 100% stock con 100% de uso y 100% de TDP pues ni tan mal, encima le estás haciendo un undervolt estable de -75mV manteniendo rendimiento y ahorrando energía, si para colmo la memoria te aguanta +1300 (que sube el rendimiento más que el core) pues cero quejas.
colado escribió:
hh1 escribió:
colado escribió:
Y que tiene que ver las FE? que son gama baja? si tienen mejor pcb que la gran mayoria de graficas.

Pues que en yeoría las FE al ser las baratas ,eran peores.
Y nada más lejos de la realidad.

Yo está Eagle dudo que no tenga buen PCB.
De hecho, no creo que haya una 4080 con mal PCB.

Por ser Eagle no tiene que ser peor en PCB que otras.


No son baratas o caras, son el precio marcado por nvidia, y realmente las founder edition hasta las series 3000 solian ser las mas caras porque no se dictan por el mercado y tienen precio fijo.

Respecto a la Eagle, Gigabyte tiene 5 gamas en las 4080, ( ordenadas de mejor a peor: Xtreme, Master, Gaming, Aero y Eagle) y cada una con su version OC, la Eagle es la mas baja. Respecto a la Suprim de @Lince_SPAIN, el tiene la mejor gama dentro de MSI, es normal que dejen los mejores chips para las mejores ( y mas caras) gamas.

Yo no me rayaria con benchs y comparativas y la disfrutaria.

No no...
Sí no me rayo por eso ni mucho menos.
Sí al final las diferencias de una mala a una buena son pequeñas.

Lo que me rayó fue lo de que me fuese "mal" el Hunt Showdown
40fps menos que otro con una 3080Ti.
Eso sí es para rayarse.

Pero en el resto de juegos no me ha pasado.
De hecho, al salir del juego ,ya te digo que el pc iba con lag al clickar.
Muy raro...Sería de eso ...

Pero mosquea.
Luego reinicié,puse Metro Exodus y como un tiro.Ahí sí iba como una 4080 tiene que ir. [beer]

@Lince_SPAIN
Toda la razón.
Veo un problema muy serio en este foro de hardware.
Cuando uno se gasta 2000 euros en una gpu top no se puede racanear en componentes, en fuente de alimentación, en placas base baratas, he llegado a leer que da igual la cpu que cualquiera vale, que no hacen cuellos de botella en la 4090 jugando a 4k, que el rendimiento para jugar de un i5 es casi igual que un i9, que con una fuente de alimentación de 850w va sobrado etc....
Luego pasa lo que pasa, que se me apaga el pc, que se reinicia, que no rinde como debería etc etc.....
yosu888 escribió:Veo un problema muy serio en este foro de hardware.
Cuando uno se gasta 2000 euros en una gpu top no se puede racanear en componentes, en fuente de alimentación, en placas base baratas, he llegado a leer que da igual la cpu que cualquiera vale, que no hacen cuellos de botella en la 4090 jugando a 4k, que el rendimiento para jugar de un i5 es casi igual que un i9, que con una fuente de alimentación de 850w va sobrado etc....
Luego pasa lo que pasa, que se me apaga el pc, que se reinicia, que no rinde como debería etc etc.....


No, el problema son los extremos, tanto para abajo como para arriba

Está claro que un 13900k va a ir mejor en gaming que un 13100, o que una fuente ax16001 de corsair va a ir mas holgada que una mars de 850w de corsair, pero no hace falta ir al extremo máximo para que funcione correctamente todo.

Los dos extremos son absurdos.
Buenas tardes, Me ha pasado ya varias veces que estoy jugando al Crisys 2 y al 3 que de repente se cierra y se reinicia windows solo. Revisando los LOG veo que dio el siguiente error. Cuando da el error no lo hace cuando hay mucho requisito grafrico, lo hace en cualquier momento, en unas 10 horas me lo ha hecho 2 veces en el crisys 2 y en el crisys 3 en una hora me lo ha hecho 1, pero estoy rallado y no se si es que la grafica esta mal.
Imagen

Imagen
Cambia hace poco de una 3060ti a la RTX 4070 Ti y no formatee el equipo, no se si se recomienda en estos casos o igual es algo de ese juego que tiene fallos, pero al hacermelo en en crisys 2 y ahora en el 3.... es raro. Todavia no he jugado a otro juego diferente, no se si afectara a otros pero queria saber si con esos datos se os oscurre de que puede ser.

Saludos y gracias.
yosu888 escribió:Veo un problema muy serio en este foro de hardware.
Cuando uno se gasta 2000 euros en una gpu top no se puede racanear en componentes, en fuente de alimentación, en placas base baratas, he llegado a leer que da igual la cpu que cualquiera vale, que no hacen cuellos de botella en la 4090 jugando a 4k, que el rendimiento para jugar de un i5 es casi igual que un i9, que con una fuente de alimentación de 850w va sobrado etc....
Luego pasa lo que pasa, que se me apaga el pc, que se reinicia, que no rinde como debería etc etc.....


Todo depende del uso. Yo por mucha 4090 que tuviera, no me gastaría la pasta en un i9 o en una placa de 700€ si con un i5 voy a tener el mismo rendimiento (obviando que la 4090 pudiera hacerle cuello de botella), pero me explico con lo que quiero decir. Y más si es a 4k, que la diferencia es casi nula. No hay que volverse loco y comprar al tun tun.
Hola
E pasado de una 3080 a una 4070ti tuf oc he borrado los drivers antiguos con ddu y instalado los nuevos.
Tengo 2 juegos que usan dlss3 o frame generador como queráis decirle y tengo el mismo problema con los 2.
Empieza bien pero a los 5 o 10 minutos de juego sufro una bajada de FPS y el juego se keda injugable.
Tengo la aceleración por hardware activada en Windows y no sé si es la gráfica,mala configuración,o bug de el juego..... Pero me parece raro ke ocurra en los 2.
Por cierto son Spiderman miles morales y the witcher 3 actualizado a su última versión.
Me podría alguien iluminar al respecto .
Gracias de antemano
yosu888 escribió:Veo un problema muy serio en este foro de hardware.
Cuando uno se gasta 2000 euros en una gpu top no se puede racanear en componentes, en fuente de alimentación, en placas base baratas, he llegado a leer que da igual la cpu que cualquiera vale, que no hacen cuellos de botella en la 4090 jugando a 4k, que el rendimiento para jugar de un i5 es casi igual que un i9, que con una fuente de alimentación de 850w va sobrado etc....
Luego pasa lo que pasa, que se me apaga el pc, que se reinicia, que no rinde como debería etc etc.....

Hombre ..en mi caso para 1440p tengo un 12600 y una 4080.
Mucho cuello de botella no puede haber.

Y lo que no es normal es que un 13600k con una 3080Ti de 40 fps más jugando a la vez al mismo juego.
Ahí pasó algo, está claro.

Por mucho que el 13600k sea mejor que el 12600,no hay ,ni de lejos ,tanta diferencia.Y me os si mi gráfica es un 25-30% más potente que la suya.

Lo digo por si va por ahí tu comentario.

Y lo otro...
Yo veo absurdo comprarse una 4090 y un 13900k para jugar a 4K.
Es más ,es que ni un 13700k.
La diferencia con un 13600k en 4k puede ir del 2-3-4 % .No más.
Yo no gastaría más de un13600k ,por no decir de un 13400 .

Para mí es tirar el dinero.

Que te gastes 2000€ en una gráfica no quiere decir que se te caiga el dinero del bolsillo.

Y si tienes una buena fuente de 850w,no porqué. hay que cambiar ,si vale de sobra.

@Lince_SPAIN
PD: pues ando todo ralllado ...
He vuelto a probar Hunt Showdown e igual....120-.135.150 fps en 1440p con picos de algo más.No es normal.
¿Cómo le puede ir a mi amigo con una 3080Ti a 180 fps en zonas que me va a mí a 130?

¿Qué puede pasar?
hh1 escribió:
yosu888 escribió:Veo un problema muy serio en este foro de hardware.
Cuando uno se gasta 2000 euros en una gpu top no se puede racanear en componentes, en fuente de alimentación, en placas base baratas, he llegado a leer que da igual la cpu que cualquiera vale, que no hacen cuellos de botella en la 4090 jugando a 4k, que el rendimiento para jugar de un i5 es casi igual que un i9, que con una fuente de alimentación de 850w va sobrado etc....
Luego pasa lo que pasa, que se me apaga el pc, que se reinicia, que no rinde como debería etc etc.....

Hombre ..en mi caso para 1440p tengo un 12600 y una 4080.
Mucho cuello de botella no puede haber.

Y lo que no es normal es que un 13600k con una 3080Ti de 40 fps más jugando a la vez al mismo juego.
Ahí pasó algo, está claro.

Por mucho que el 13600k sea mejor que el 12600,no hay ,ni de lejos ,tanta diferencia.Y me os si mi gráfica es un 25-30% más potente que la suya.

Lo digo por si va por ahí tu comentario.

Y lo otro...
Yo veo absurdo comprarse una 4090 y un 13900k para jugar a 4K.
Es más ,es que ni un 13700k.
La diferencia con un 13600k en 4k puede ir del 2-3-4 % .No más.
Yo no gastaría más de un13600k ,por no decir de un 13400 .

Para mí es tirar el dinero.

Que te gastes 2000€ en una gráfica no quiere decir que se te caiga el dinero del bolsillo.

Y si tienes una buena fuente de 850w,no porqué. hay que cambiar ,si vale de sobra
.

@Lince_SPAIN
PD: pues ando todo ralllado ...
He vuelto a probar Hunt Showdown e igual....120-.135.150 fps en 1440p con picos de algo más.No es normal.
¿Cómo le puede ir a mi amigo con una 3080Ti a 180 fps en zonas que me va a mí a 130?

¿Qué puede pasar?



A eso es lo que me refiero yo. Molaría tener pasta infinita y tener lo mejor de lo mejor? sin duda, pero como no es el caso, hay que montar el equipo con cabeza y conociendo tus limitaciones. Yo por un 5% más no me gasto 1.000€ extra xd
KindapearHD escribió:
hh1 escribió:
yosu888 escribió:Veo un problema muy serio en este foro de hardware.
Cuando uno se gasta 2000 euros en una gpu top no se puede racanear en componentes, en fuente de alimentación, en placas base baratas, he llegado a leer que da igual la cpu que cualquiera vale, que no hacen cuellos de botella en la 4090 jugando a 4k, que el rendimiento para jugar de un i5 es casi igual que un i9, que con una fuente de alimentación de 850w va sobrado etc....
Luego pasa lo que pasa, que se me apaga el pc, que se reinicia, que no rinde como debería etc etc.....

Hombre ..en mi caso para 1440p tengo un 12600 y una 4080.
Mucho cuello de botella no puede haber.

Y lo que no es normal es que un 13600k con una 3080Ti de 40 fps más jugando a la vez al mismo juego.
Ahí pasó algo, está claro.

Por mucho que el 13600k sea mejor que el 12600,no hay ,ni de lejos ,tanta diferencia.Y me os si mi gráfica es un 25-30% más potente que la suya.

Lo digo por si va por ahí tu comentario.

Y lo otro...
Yo veo absurdo comprarse una 4090 y un 13900k para jugar a 4K.
Es más ,es que ni un 13700k.
La diferencia con un 13600k en 4k puede ir del 2-3-4 % .No más.
Yo no gastaría más de un13600k ,por no decir de un 13400 .

Para mí es tirar el dinero.

Que te gastes 2000€ en una gráfica no quiere decir que se te caiga el dinero del bolsillo.

Y si tienes una buena fuente de 850w,no porqué. hay que cambiar ,si vale de sobra
.

@Lince_SPAIN
PD: pues ando todo ralllado ...
He vuelto a probar Hunt Showdown e igual....120-.135.150 fps en 1440p con picos de algo más.No es normal.
¿Cómo le puede ir a mi amigo con una 3080Ti a 180 fps en zonas que me va a mí a 130?

¿Qué puede pasar?



A eso es lo que me refiero yo. Molaría tener pasta infinita y tener lo mejor de lo mejor? sin duda, pero como no es el caso, hay que montar el equipo con cabeza y conociendo tus limitaciones. Yo por un 5% más no me gasto 1.000€ extra xd

Yo ni 1000€,ni 200€.
rizo360x escribió:Hola
E pasado de una 3080 a una 4070ti tuf oc he borrado los drivers antiguos con ddu y instalado los nuevos.
Tengo 2 juegos que usan dlss3 o frame generador como queráis decirle y tengo el mismo problema con los 2.
Empieza bien pero a los 5 o 10 minutos de juego sufro una bajada de FPS y el juego se keda injugable.
Tengo la aceleración por hardware activada en Windows y no sé si es la gráfica,mala configuración,o bug de el juego..... Pero me parece raro ke ocurra en los 2.
Por cierto son Spiderman miles morales y the witcher 3 actualizado a su última versión.
Me podría alguien iluminar al respecto .
Gracias de antemano


Tienes un intel con HT activado? precisamente en esos 2 juegos creo que va peor así.
Yo ya me estoy rayando tanto que estoy sopesando la devolución.

The Evil West ,vale que va mega sobrado, pero con la 3080Ti en determinadas zonas tenía pocos de 370 fps y con esta se queda en 315 fps.en la misma zona.

El Hunt 40 fps que la 3080Ti de mi amigo.

El metro Exodus en exteriores al inicio del juego 1440p con RT , 140-175fps...yo vi bdi algunos vídeos ,veo que van a más.

Incluso dudo ya si a Plague Tale iba mejor que con la 3080Ti,que me sonaba que al inicio estaba en 90-.00fps y con estav130-140fps ,pero ya hasta dudo.

Yo ya no sé.

Me parece raro cuando los bench que hago están en la media de las 4080.

Probaré más juegos que haya jugado con la 3080Ti,y si veo que no,va de vuelta a la tienda.
hh1 escribió:
Me parece raro cuando los bench que hago están en la media de las 4080.



Ah claro, que tenia que estar en la media de las 4090, o mejor, en la media de las 3060. Si es una 4080 en que media quieres que este?

Tal vez tengas alguna configuracion de windows/nvidia mal, en plan, algo de economizar energia.
(mensaje borrado)
@hh1 el Plague tiene capítulos donde la CPU limita a la gráfica, por lo demás los drivers en esta serie 4000 también se apoyan mucho en el procesador (lo del hardware scheduling por ahora solo se nota en el generador de frames), de todos modos a pesar de esto y con tu Intel gen 12 me cuesta muchísimo creer que la 3080Ti quede por encima de una 4080 da igual la tarea que esté ejecutando.
colado escribió:
hh1 escribió:Me parece raro cuando los bench que hago están en la media de las 4080.

Ah claro, que tenia que estar en la media de las 4090, o mejor, en la media de las 3060. Si es una 4080 en que media quieres que este?

Leyendo un poco rápido me ha pasado como a ti, pero le has leído mal. No ha dicho que le parezca raro que los bench que hace les dé de media como las 4080 sino que le parece raro (lo anteriormente comentado) CUANDO los bench que hace le da la media de los 4080.


Lo que esto viene a lo que le iba a decir, y es que, @hh1 tú ya sabes cómo funciona esto mas o menos, y veo que de lo que dices no comentas algo muy importante: la CPU de tu amigo. Aunque si comparas datos de tu mismo PC exactamente igual donde solo cambias la 3080 Ti por la 4080 entonces da igual la CPU, pero como hablas de tu amigo... pues aquí ya empiezan los líos.

Que a todo esto, a simple vista en esta review ese juego a 2k va a unos 188fps con la 3080 Ti y a unos 257fps con la 4080 con calidad alta (no ultra). Luego dices lo del plague tale pero dudas... joder, pues sí que te preparaste bien para el cambio que ya no sabes qué tal iba con el plague con tu anterior gráfica. Busca reviews de la 3080Ti y la 4080 a 2k (juegas a eso, no?) y verás. De hecho casi que me olvidaría de tu anterior 3080 Ti y simplemente me fijaría en que tu 4080 se comporta como la media de reviews que veas de la 4080. ¿Que encaja la mayoría de juegos? Perfecto. ¿Que no? Pues revisa cuál es el problema de tu PC (o si puedes probarla en otro PC) o si no devuélvela por otra si crees que es la gráfica... pero antes ten bien claro los números y las pruebas que haces porque por lo que dices no queda nada claro qué te pasa. Tampoco sé si solo tienes problemas con 2 juegos puntuales o es que no has probado mucho mas.

A todo esto, recuerdo que en su momento te dije que si tanto te está costando decidirte en cambiar la gráfica es que muy a cuenta no te saldría... XD
Rvilla87 escribió:
colado escribió:
hh1 escribió:Me parece raro cuando los bench que hago están en la media de las 4080.

Ah claro, que tenia que estar en la media de las 4090, o mejor, en la media de las 3060. Si es una 4080 en que media quieres que este?

Leyendo un poco rápido me ha pasado como a ti, pero le has leído mal. No ha dicho que le parezca raro que los bench que hace les dé de media como las 4080 sino que le parece raro (lo anteriormente comentado) CUANDO los bench que hace le da la media de los 4080.


Vale, aunque creo que no lo leimos mal, el ponerlo en un punto y aparte mas no usar comas, da a entender lo contrario de lo que quiere decir.
colado escribió:
hh1 escribió:
Me parece raro cuando los bench que hago están en la media de las 4080.



Ah claro, que tenia que estar en la media de las 4090, o mejor, en la media de las 3060. Si es una 4080 en que media quieres que este?

Tal vez tengas alguna configuracion de windows/nvidia mal, en plan, algo de economizar energia.

Pero si lo digo por eso.Porque loss bench están bien.
Lo que me hace dudar es el tema juegos.

Ya revissé todos los parámetros y está todo perfecto.
Además ,si tuviese algo mal ,imagino que cantaría en alguno de los 3 bench que he hecho innumerables veces.

@Rvilla87
La saqué a 1100€ nueva.Hice el cambio por 390€...
Yo creo que lo tenía que hacer

Puse un par de veces que mi amigo tiene un 13600k.
Eso no da para sacarme 40fps con una gráfica un 30% inferior.Yo voy con un 12600.

A ver...es que uno no espera que una gráfica teóricamente nueva , no vaya bien.
No me ha pasado jamás.

Sí recuerdo que en A Plague Tale en el inicio iba sobre los 100fps con la 3080Ti.
Pero ya con todo esto, hasta dudas.

Mañana probaré juegos que tengo grabados en video como Horizon 5 o Halo Infinite.

Y ojo, que digo teóricsmente nueva porque ya me empieza a oler mal el tema de la gráfica.
Estaba absolutamente embalada por Coolmod.
La caja no llevaba precinto (ninguna lo lleva)
Luego ,la gráfica venía en un plástico aparentemente sin tocar con sus precintos (desconozco si las tiendas pueden toquetear esto y dejarlo como nuevo).
Pero lo que me hace muuuuucho desconfiar ,es que la bolsita del cable pulpo estaba ya abierta.

Y claro, ya ves todas estas cosas y es que me da un tufo a gráfica de devolución que alucinas y que el motivo puede ser esto mismo que estoy viendo yo.
@hh1 pues nada sigue con tus pajas mentales de cpus y undevolts y fuentes justas.
en fin prueba a cambiar el 12600 por el 13600k de tu colega y seguramente tengas los mismos fps que el.
;)
yosu888 escribió:@hh1 pues nada sigue con tus pajas mentales de cpus y undevolts y fuentes justas.
en fin prueba a cambiar el 12600 por el 13600k de tu colega y seguramente tengas los mismos fps que el.
;)

Pero vamos a ver...
Cómo voy a tener lo mismo si él tiene una gráfica un 30% inferior.
Ni con la .meojor cpu del mercado puede sacarme 40 fps con una 3080Ti en circunstancias normales.
Es más ,es que ni estar equiparado.

Dejamos de soltar chorradas porque no te dé la razón.
Ahí tienes miles de pruebas de un 13600k vs un 13900k a 1440p o 4k ,para ver si merece la pena o no meterle tanto dinero a un 13900k.
Vamos ,ni de coña.

Pero es que no hablamos de esto.
Hablamos de qué puede pasar ,a parte de que esté mal la gráfica ,para que una 3080Ti rinda más que una 4080 con CPUs similares.
No tiene ningún sentido.

Igual que tampoco entiendo que en algunos juegos parece que no va como debe ir pero en los benchmarks ,sí.
hh1 escribió:
yosu888 escribió:@hh1 pues nada sigue con tus pajas mentales de cpus y undevolts y fuentes justas.
en fin prueba a cambiar el 12600 por el 13600k de tu colega y seguramente tengas los mismos fps que el.
;)

Pero vamos a ver...
Cómo voy a tener lo mismo si él tiene una gráfica un 30% inferior.
Ni con la .meojor cpu del mercado puede sacarme 40 fps con una 3080Ti en circunstancias normales.
Es más ,es que ni estar equiparado.

Dejamos de soltar chorradas porque no te dé la razón.
Ahí tienes miles de pruebas de un 13600k vs un 13900k a 1440p o 4k ,para ver si merece la pena o no meterle tanto dinero a un 13900k.
Vamos ,ni de coña.

Pero es que no hablamos de esto.
Hablamos de qué puede pasar ,a parte de que esté mal la gráfica ,para que una 3080Ti rinda más que una 4080 con CPUs similares.
No tiene ningún sentido.

Igual que tampoco entiendo que en algunos juegos parece que no va como debe ir pero en los benchmarks ,sí.


Yo la devolvía. Vas a estar más pendiente de mirar fps, benchs y demás que de disfrutarla.

Y según lo que comentas, no creo que sea muy normal... no hay nadie que tenga esa misma configuración? O probar tu gráfica donde tu colega?

Píllate una 4090 y a correr xD
dan-88 escribió:
hh1 escribió:
yosu888 escribió:@hh1 pues nada sigue con tus pajas mentales de cpus y undevolts y fuentes justas.
en fin prueba a cambiar el 12600 por el 13600k de tu colega y seguramente tengas los mismos fps que el.
;)

Pero vamos a ver...
Cómo voy a tener lo mismo si él tiene una gráfica un 30% inferior.
Ni con la .meojor cpu del mercado puede sacarme 40 fps con una 3080Ti en circunstancias normales.
Es más ,es que ni estar equiparado.

Dejamos de soltar chorradas porque no te dé la razón.
Ahí tienes miles de pruebas de un 13600k vs un 13900k a 1440p o 4k ,para ver si merece la pena o no meterle tanto dinero a un 13900k.
Vamos ,ni de coña.

Pero es que no hablamos de esto.
Hablamos de qué puede pasar ,a parte de que esté mal la gráfica ,para que una 3080Ti rinda más que una 4080 con CPUs similares.
No tiene ningún sentido.

Igual que tampoco entiendo que en algunos juegos parece que no va como debe ir pero en los benchmarks ,sí.


Yo la devolvía. Vas a estar más pendiente de mirar fps, benchs y demás que de disfrutarla.

Y según lo que comentas, no creo que sea muy normal... no hay nadie que tenga esa misma configuración? O probar tu gráfica donde tu colega?

Píllate una 4090 y a correr xD

Esperemos que el Coolmod se porten.
Lo mismo mañana va de vuelta.

No pago lo que vale una 4090 ni borracho .
A parte de que no le sacaría ni partido con mi monitor.
Pero oye ,si me la dejan al mismo precio. [poraki]
hh1 escribió:
yosu888 escribió:@hh1 pues nada sigue con tus pajas mentales de cpus y undevolts y fuentes justas.
en fin prueba a cambiar el 12600 por el 13600k de tu colega y seguramente tengas los mismos fps que el.
;)

Pero vamos a ver...
Cómo voy a tener lo mismo si él tiene una gráfica un 30% inferior.
Ni con la .meojor cpu del mercado puede sacarme 40 fps con una 3080Ti en circunstancias normales.
Es más ,es que ni estar equiparado.

Dejamos de soltar chorradas porque no te dé la razón.
Ahí tienes miles de pruebas de un 13600k vs un 13900k a 1440p o 4k ,para ver si merece la pena o no meterle tanto dinero a un 13900k.
Vamos ,ni de coña.

Pero es que no hablamos de esto.
Hablamos de qué puede pasar ,a parte de que esté mal la gráfica ,para que una 3080Ti rinda más que una 4080 con CPUs similares.
No tiene ningún sentido.

Igual que tampoco entiendo que en algunos juegos parece que no va como debe ir pero en los benchmarks ,sí.



Pues no se lo que miraste , pero yo te acabo de mirar de rapidez, y las diferencias de un:
12600k vs un 13600k con una 4080.
Son más que apreciables.

Imagen
Imagen
google imagens

Eso a 4k, a 1440p, será más aún.



"3080Ti rinda más que una 4080 con CPUs similares"

Habría que mirar, a mi también me suena raro, como se suele decir, ta pocha, devuelvela.
d2akl escribió:
hh1 escribió:
yosu888 escribió:@hh1 pues nada sigue con tus pajas mentales de cpus y undevolts y fuentes justas.
en fin prueba a cambiar el 12600 por el 13600k de tu colega y seguramente tengas los mismos fps que el.
;)

Pero vamos a ver...
Cómo voy a tener lo mismo si él tiene una gráfica un 30% inferior.
Ni con la .meojor cpu del mercado puede sacarme 40 fps con una 3080Ti en circunstancias normales.
Es más ,es que ni estar equiparado.

Dejamos de soltar chorradas porque no te dé la razón.
Ahí tienes miles de pruebas de un 13600k vs un 13900k a 1440p o 4k ,para ver si merece la pena o no meterle tanto dinero a un 13900k.
Vamos ,ni de coña.

Pero es que no hablamos de esto.
Hablamos de qué puede pasar ,a parte de que esté mal la gráfica ,para que una 3080Ti rinda más que una 4080 con CPUs similares.
No tiene ningún sentido.

Igual que tampoco entiendo que en algunos juegos parece que no va como debe ir pero en los benchmarks ,sí.



Pues no se lo que miraste , pero yo te acabo de mirar de rapidez, y las diferencias de un:
12600k vs un 13600k con una 4080.
Son más que apreciables.

Imagen
Imagen
google imagens

Eso a 4k, a 1440p, será más aún.



"3080Ti rinda más que una 4080 con CPUs similares"

Habría que mirar, a mi también me suena raro, como se suele decir, ta pocha, devuelvela.

Estoy harto de ver pruebas de Cpus ,.
Que en algún juego pueda pasar que haya más diferencia ,puede.
Pero en la gran mayoría no.
Y mucho menos ,no tanta como para que una 3080Ti supere a una 4080.

Mañana pruebo un par de juegos más .Si no me convence se va de vuelta.

No sé si me dan dinero para pillar otra (creo que dan un vale) .Pero si es así, tronco la KFA2 y a correr.
hh1 escribió:
dan-88 escribió:
hh1 escribió:Pero vamos a ver...
Cómo voy a tener lo mismo si él tiene una gráfica un 30% inferior.
Ni con la .meojor cpu del mercado puede sacarme 40 fps con una 3080Ti en circunstancias normales.
Es más ,es que ni estar equiparado.

Dejamos de soltar chorradas porque no te dé la razón.
Ahí tienes miles de pruebas de un 13600k vs un 13900k a 1440p o 4k ,para ver si merece la pena o no meterle tanto dinero a un 13900k.
Vamos ,ni de coña.

Pero es que no hablamos de esto.
Hablamos de qué puede pasar ,a parte de que esté mal la gráfica ,para que una 3080Ti rinda más que una 4080 con CPUs similares.
No tiene ningún sentido.

Igual que tampoco entiendo que en algunos juegos parece que no va como debe ir pero en los benchmarks ,sí.


Yo la devolvía. Vas a estar más pendiente de mirar fps, benchs y demás que de disfrutarla.

Y según lo que comentas, no creo que sea muy normal... no hay nadie que tenga esa misma configuración? O probar tu gráfica donde tu colega?

Píllate una 4090 y a correr xD

Esperemos que el Coolmod se porten.
Lo mismo mañana va de vuelta.

No pago lo que vale una 4090 ni borracho .
A parte de que no le sacaría ni partido con mi monitor.
Pero oye ,si me la dejan al mismo precio. [poraki]

por favor deja de ver al TOROMOCHO que esta haciendo mucho daño al mundo del hardware.
Yo no se donde ves tu que no hay diferencias en cpus, lo que pasa que tienes un cuello de botella mas grande que el que tiene tu colega con el 13600 k, pero tu sigue erre que erre con que la grafica esta pocha ;)
hh1 escribió:
d2akl escribió:
hh1 escribió:Pero vamos a ver...
Cómo voy a tener lo mismo si él tiene una gráfica un 30% inferior.
Ni con la .meojor cpu del mercado puede sacarme 40 fps con una 3080Ti en circunstancias normales.
Es más ,es que ni estar equiparado.

Dejamos de soltar chorradas porque no te dé la razón.
Ahí tienes miles de pruebas de un 13600k vs un 13900k a 1440p o 4k ,para ver si merece la pena o no meterle tanto dinero a un 13900k.
Vamos ,ni de coña.

Pero es que no hablamos de esto.
Hablamos de qué puede pasar ,a parte de que esté mal la gráfica ,para que una 3080Ti rinda más que una 4080 con CPUs similares.
No tiene ningún sentido.

Igual que tampoco entiendo que en algunos juegos parece que no va como debe ir pero en los benchmarks ,sí.



Pues no se lo que miraste , pero yo te acabo de mirar de rapidez, y las diferencias de un:
12600k vs un 13600k con una 4080.
Son más que apreciables.

Imagen
Imagen
google imagens

Eso a 4k, a 1440p, será más aún.



"3080Ti rinda más que una 4080 con CPUs similares"

Habría que mirar, a mi también me suena raro, como se suele decir, ta pocha, devuelvela.

Estoy harto de ver pruebas de Cpus ,.
Que en algún juego pueda pasar que haya más diferencia ,puede.
Pero en la gran mayoría no.
Y mucho menos ,no tanta como para que una 3080Ti supere a una 4080.

Mañana pruebo un par de juegos más .Si no me convence se va de vuelta.

No sé si me dan dinero para pillar otra (creo que dan un vale) .Pero si es así, tronco la KFA2 y a correr.



No se en tu caso en particular, pero la diferencia entre 12600k vs 13600k con una 4080, esas capturas, son reales. Tienes otros casos también cierto es que van más parejos, pero también más grandes.
LLámale cuello del 12600k o potencia o X. Yo no se el xq.
Pero 20 fps de diferencia por 60 euros ,en ese casos de las capturas, +-son muchos fps hablando de 4k.

Pero para salir de dudas es sencillo.

Busca par de test que tengan X juegos
Unos con 3080ti+ proce del colega
Y otros con la 4080+ tu proce

Comparar y listo.
yosu888 escribió:
hh1 escribió:
dan-88 escribió:
Yo la devolvía. Vas a estar más pendiente de mirar fps, benchs y demás que de disfrutarla.

Y según lo que comentas, no creo que sea muy normal... no hay nadie que tenga esa misma configuración? O probar tu gráfica donde tu colega?

Píllate una 4090 y a correr xD

Esperemos que el Coolmod se porten.
Lo mismo mañana va de vuelta.

No pago lo que vale una 4090 ni borracho .
A parte de que no le sacaría ni partido con mi monitor.
Pero oye ,si me la dejan al mismo precio. [poraki]

por favor deja de ver al TOROMOCHO que esta haciendo mucho daño al mundo del hardware.
Yo no se donde ves tu que no hay diferencias en cpus, lo que pasa que tienes un cuello de botella mas grande que el que tiene tu colega con el 13600 k, pero tu sigue erre que erre con que la grafica esta pocha ;)

Pero vamos a ver...
Sí te estoy diciendo que incluso en algún juego como The Evil West VA PEOR que con la 3080Ti que ,tenía y usaba la misma cpu.
hh1 escribió:Pero vamos a ver...
Sí te estoy diciendo que incluso en algún juego como The Evil West VA PEOR que con la 3080Ti que ,tenía y usaba la misma cpu.


Que fuente tienes?

Y de un 12600k a un 13600k hay bastante diferencia. Y el tuyo creo que es un 12600 a secas, sin k, mas diferencia todavia.



Y si tu amigo tiene DDR 5, mas diferencia todavia.
@d2akl @yosu888 y dale con lo de la CPU que es tan importante... quizás a veces se exagera diciendo que no importa, y como ya decía ditifet, ni un extremo ni otro. Pero vamos, puesto a elegir un extremo, me quedo con el extremo de que no importa (para simplificar digo, aunque sea incorrecto). Y por cierto esas capturas del Forbiden me parecen muy exageradas, a saber cómo habrá hecho el test. Aquí por ejemplo, y con una 4090 (que aún puede ahogar mas a la CPU) en 4k, como esa captura, es tan solo de 154fps (12600k) vs 158 fps (13600k):



Pero vamos, dejando de lado todo esta pequeña diferencia de la CPU, es que si os paráis a ver los datos de hh1 no tiene ni pies ni cabeza, no es SOLO un tema de CPU. Solo por la CPU se van unos pocos/muchos fps arriba o abajo depende del juego, pero es que decir cosas como que un juego le rendirá con una 4080 y un 13600k funciona igual que con una 3080 Ti y un 13600k ya es pasarse... joder, a ver si ahora va a resultar que para los videojuegos es mejor la CPU que la GPU [qmparto]

hh1 tiene otro problema, el de la CPU deberá ser algo menor, primero que solucione lo que tenga (ya sea GPU defectuosa, windows/drivers jodido, fuente/ram mal, etc, lo que sea) cuando pruebe todo bien y ya si eso luego se podrá mirar el tema de la CPU.
beatle escribió:
hh1 escribió:Pero vamos a ver...
Sí te estoy diciendo que incluso en algún juego como The Evil West VA PEOR que con la 3080Ti que ,tenía y usaba la misma cpu.


Que fuente tienes?

Y de un 12600k a un 13600k hay bastante diferencia. Y el tuyo creo que es un 12600 a secas, sin k, mas diferencia todavia.



Y si tu amigo tiene DDR 5, mas diferencia todavia.

Pero si en la mayoría de juegos no va casi nada.
Quitando alguno puntual.
El 12600 sin k va 3-4% por debajo del K.Irrisoria diferencia.

El tema es que ni con un 13900k ,señores ,que no, no puede dar una 3080Ti más fps que una 4080 con un 12600.
Es que es imposible a 1440p.
Y no hablamos ya que dé más...es que en Junto sin 40fos ,entorno a un 20% más.

Me estáis haciendo creer que un 13600k salva ,ya no la diferencia de una 4080vs una 3080Ti,sino que encima le saca la 3080Ti por el hecho de ir yo con una 12600...


Chicos..que hemos fumado hoy?
Con todo los respetos. [beer]

@Rvilla87
Hablamos de que en Hunt recorta el 30% de diferencia entre las gráficas y me saca otro 20%...
Por tener un 13600k? [+risas]
Ni de coña hay tanta diferencia entre CPUs.
Igual que en ese juego que se ve tanta ,te vas a otras pruebas y van casi calcados.

Que un 13600k pueda sacar de media a una 12600k, en 1440p un 10%...venga bah puede.Peor que en la mayroía ni llega a eso.
Pero es lo que veo es que me mete un 50%.

Es más ,en uno de los juegos , a mí me iba en ciertos puntos 60fps más con la 3080ti y el mismo 12600.

Es que es eso.La cpu no tiene absolutamente nada que ver.
Para el siguiente upgrade en vez de una 5080,me compro un 14600 y me cepillo a la 5090 con mi 4080. [+risas] .

Aquí pasa algo.
Hice instalación desde 0.Drivers y últimos controladores.
Los benchamraks bien.
Panel de control Nvidia y opciones de Windows todo ok y mega revisado.

Algo hay raro en juegos

La fuente descartada .Es una Corsair. RM1000X.

Huele a que la gráfica está mal a la legua .
Estas pruebas raras en juegos ,bolsa del pulpo abierta...huele que apesta la verdad
Mañana salgo totalmente de duda con Horizon 5.
hh1 escribió:Pero si en la mayoría de juegos no va casi nada.
Quitando alguno puntual.
El 12600 sin k va 3-4% por debajo del K.Irrisoria diferencia.

El tema es que ni con un 13900k ,señores ,que no, no puede dar una 3080Ti más fps que una 4080 con un 12600.
Es que es imposible a 1440p.
Y no hablamos ya que dé más...es que en Junto sin 40fos ,entorno a un 20% más.

Me estáis haciendo creer que un 13600k salva ,ya no la diferencia de una 4080vs una 3080Ti,sino que encima le saca la 3080Ti por el hecho de ir yo con una 12600...


Chicos..que hemos fumado hoy?
Con todo los respetos. [beer]


Tambien puede ser DDR 4 vs DDR 5. Tu DDR 4 3000 puede ser un gran cuello de botella para la RTX 4080.
Que tu fuente se quede corta.
beatle escribió:
hh1 escribió:Pero si en la mayoría de juegos no va casi nada.
Quitando alguno puntual.
El 12600 sin k va 3-4% por debajo del K.Irrisoria diferencia.

El tema es que ni con un 13900k ,señores ,que no, no puede dar una 3080Ti más fps que una 4080 con un 12600.
Es que es imposible a 1440p.
Y no hablamos ya que dé más...es que en Junto sin 40fos ,entorno a un 20% más.

Me estáis haciendo creer que un 13600k salva ,ya no la diferencia de una 4080vs una 3080Ti,sino que encima le saca la 3080Ti por el hecho de ir yo con una 12600...


Chicos..que hemos fumado hoy?
Con todo los respetos. [beer]


Tambien puede ser DDR 4 vs DDR 5. Tu DDR 4 3000 puede ser un gran cuello de botella para la RTX 4080.
Que tu fuente se quede corta.

Las diferencia en RAMs no son tan enormes actualmente .
Por mucho que pongas la mejor DDR5 no da para levantar un 30% de diferencia y meter otro 20% más.

Con el mismo pc jugaba al Hunt con la 3070 y me iba casi a los mismos fps que ahora.
No tiene sentido.

La fuente tampoco.Es una Corsair RM1000X.
Además ,en juegos y test veo que da todo el power sin problemas.

Tú le pones a un 13900k la mejor DDR5 de hoy día y una 3080Ti, y es imsposible que ni se acerca a lo mío con un 12600, ddr4 y una 4080.
Qué me puede recortar por cpu y ram10-15% siendo ya muy extremo ...
Es que la saca solo la gráfica un 30%!
Ni con esas.


Adenás que va con una DDR5 5600 cl34.
Tampoco rinde mucho más.
14371 respuestas