Rvilla87 escribió:@d2akl @yosu888 y dale con lo de la CPU que es tan importante... quizás a veces se exagera diciendo que no importa, y como ya decía ditifet, ni un extremo ni otro. Pero vamos, puesto a elegir un extremo, me quedo con el extremo de que no importa (para simplificar digo, aunque sea incorrecto). Y por cierto esas capturas del Forbiden me parecen muy exageradas, a saber cómo habrá hecho el test. Aquí por ejemplo, y con una 4090 (que aún puede ahogar mas a la CPU) en 4k, como esa captura, es tan solo de 154fps (12600k) vs 158 fps (13600k):
Pero vamos, dejando de lado todo esta pequeña diferencia de la CPU, es que si os paráis a ver los datos de hh1 no tiene ni pies ni cabeza, no es SOLO un tema de CPU. Solo por la CPU se van unos pocos/muchos fps arriba o abajo depende del juego, pero es que decir cosas como que un juego le rendirá con una 4080 y un 13600k funciona igual que con una 3080 Ti y un 13600k ya es pasarse... joder, a ver si ahora va a resultar que para los videojuegos es mejor la CPU que la GPU
hh1 tiene otro problema, el de la CPU deberá ser algo menor, primero que solucione lo que tenga (ya sea GPU defectuosa, windows/drivers jodido, fuente/ram mal, etc, lo que sea) cuando pruebe todo bien y ya si eso luego se podrá mirar el tema de la CPU.
d2akl escribió:Rvilla87 escribió:@d2akl @yosu888 y dale con lo de la CPU que es tan importante... quizás a veces se exagera diciendo que no importa, y como ya decía ditifet, ni un extremo ni otro. Pero vamos, puesto a elegir un extremo, me quedo con el extremo de que no importa (para simplificar digo, aunque sea incorrecto). Y por cierto esas capturas del Forbiden me parecen muy exageradas, a saber cómo habrá hecho el test. Aquí por ejemplo, y con una 4090 (que aún puede ahogar mas a la CPU) en 4k, como esa captura, es tan solo de 154fps (12600k) vs 158 fps (13600k):
Pero vamos, dejando de lado todo esta pequeña diferencia de la CPU, es que si os paráis a ver los datos de hh1 no tiene ni pies ni cabeza, no es SOLO un tema de CPU. Solo por la CPU se van unos pocos/muchos fps arriba o abajo depende del juego, pero es que decir cosas como que un juego le rendirá con una 4080 y un 13600k funciona igual que con una 3080 Ti y un 13600k ya es pasarse... joder, a ver si ahora va a resultar que para los videojuegos es mejor la CPU que la GPU
hh1 tiene otro problema, el de la CPU deberá ser algo menor, primero que solucione lo que tenga (ya sea GPU defectuosa, windows/drivers jodido, fuente/ram mal, etc, lo que sea) cuando pruebe todo bien y ya si eso luego se podrá mirar el tema de la CPU.
Yo no dije eso. Es más, le dije en el 1 mensaje, que esa tarjeta huele a que esta mal de aquí a lima, pasando por Londres, y pagando un café en Escocia.
Y despues, simplemente le demostré que con una 4080 la diferencia entre esos 2 procesadores , bueno no, con el K el del compañero, no es el K , +20 fps en muchos casos.
En 1440p que es la resolución del compañero, no en 4k.
Que seguí mirando mas videos, no sólo pasa en un par de títulos
https://youtu.be/bJM4C55olWA
A mi, las diferencias, me parecen bastante más que substanciales, y hablamos del K, el del compañero, no es el k, y la cosa cambia ya más.
Y no se tío, que se supone que es más verídico ese video que mis capturas?
Que ni pone el contador de frames en el video ni na? Bueno, a saber, ya sabes como va este mundillo
ditifet escribió:@hh1 Las gráficas funcionan o no funcionan, no funcionan a medias en cuanto a rendimiento
Si no te hace throttling y las temps son correctas la gráfica no está defectuosa
La vas a devolver, pillar otra y seguirás con el mismo "problema" y paranoias
colado escribió:ditifet escribió:@hh1 Las gráficas funcionan o no funcionan, no funcionan a medias en cuanto a rendimiento
Si no te hace throttling y las temps son correctas la gráfica no está defectuosa
La vas a devolver, pillar otra y seguirás con el mismo "problema" y paranoias
Yo creo que si los benchs los da correctos, el problema es tema de configuracion de los juegos (que tengas alguna opcion grafica cambiada y haga bajar la cantidad de fps como por ejemplo el hairworks de the witcher) o algun problema con windows/drivers.
Rvilla87 escribió:@d2akl no me has entendido, quizás me faltó mencionar a yosu888 exclusivamente en el 2º párrafo, pero pensé que como lo hice ya quedaba claro. En ningún momento dije que tu dijeras eso, de hecho si clicas en el link que pongo lo dijo yosu888, precisamente puse el link para que quede claro quien lo dijo. A ti te cité por esas capturas que no me parece que demuestren nada. Y efectivamente, como dices, me parece lógico pensar que mi fuente tiene la misma fiabilidad que tus capturas: no lo sabemos. Lo que vi claramente es que en el video que puse dan mucha mas información que me parecía relevante (por ejemplo los 1440p que es de lo que hablamos).
No tenía tiempo para aportar mas info pero ahora aporto mas info de un medio importante y no de un youtuber cualquiera sino de Techspot comparando 12600k vs 13600k en 1080, 1440 y 4k e incluso se ven diferencias entre DDR4 y DDR5 donde en algunos casos mejora bastante:
1080:
1440p
4k
Aunque no compare el Horizon ni el Metro de forma individual, en esos datos de 12 juegos se puede ver como en 1080p es donde mas diferencia hay, a 1440p también se nota bastante la diferencia y ya en 4k la diferencia es bastante pequeña.
Nada de esto sigue sin demostrar exactamente qué le pasa a hh1, porque una cosa es que, según esos datos, pasemos de 219fps (13600k con DDR5) a 178fps (12600k con DDR4) perdiendo un 20% aproximadamente (y de hecho mas o menos se puede simplificar diciendo que por la CPU se pierde un 10% y por la RAM otro 10%) cuando hh1 está contando una burrada tal como que pierde casi un 30% (180fps vs 130 fps) con una gráfica mejor.
En las comparativas que vemos se compara a igualdad de gráfica con mejor/peor procesador, pero el caso de hh1 es que con una gráfica bastante mejor saca MENOS fps cuando tiene una CPU un poco peor (no mucho peor). Con todo esto, en serio que estamos debatiendo si es un tema o no de la CPU?
@hh1 creo que sería recomendable que hagas mas pruebas con tu gráfica y dejes claro tu equipo al completo (al menos lo mas importantes) y des datos muy concretos de rendimiento, olvidándote de la 3080Ti y el equipo de tu amigo. Porque si algo no cuadra en tu equipo se podrá revisar en reviews y análisis de rendimiento que se ve por internet. En cambio si vas diciendo que si tienes 40fps menos que tu amigo (y no dices en ese mismo mensaje los fps de tu amigo que dijiste 5 posts atrás) me parece un lío y es mucho más difícil que te puedan ayudar. Por ejemplo, algo como lo que te digo este vídeo te dice algo? Una 12600k con una 3080 va ¿igual? que a ti con una gráfica bastante inferior? Tú dirás:
Y otra cosa que con tantos mensajes ya me he perdido, has dicho en algún momento todos los juegos que has probado y la media de fps que te dan? Has comparado con los reviews de la gráfica y/o videos en youtube para ver cuáles te van mas o menos bien y cuales no? No sé si estamos hablando que de 10 juegos solo 1 o 2 te van mal o de 10 juegos solo 1 o 2 te van bien, es importante esa diferencia.
Er_Garry escribió:@hh1 has probado a poner la GPU en modo Máximo Rendimiento desde el panel de control de Nvidia? Si no en todos los juegos, al menos en los que te da problemas, a ver si el comportamiento se mantiene.
Aunque si la GPU baja de uso, tiene pinta cuello de botella en algún lado, igual está saturando la RAM (transferencia de datos no GB usados), disco duro o CPU (los hilos que use).
¿Y tienes habilitado el Resizeable Bar?
Salu2
hh1 escribió:Sí, ya lo tenía puesto.
Hace cosas muy raras.
Pruebo Bright Memory Infinite con DLSS calidad 1440p.Y joder, con la 3080Ti me iba mejor.
Cuando la GPu se pone con el 99% de uso, muy bien.220-240fps.
Pero en casi todo el juego baja el uso y baja un huevo los fps en tramos a niveles, por lo que veo ,de una 3080.
De hecho, otra cosa curiosa, es que este juego puede usar RT y DLSS3, y a mí no me deja seleccionarlos.
No sé qué narices es.
Es como que a ratos va como debe y en otros, cae.Y cuando cae, ya no recupera esos fps.
No puede pegar esos bailes tan grandes de fps.No pasa en todos los juegos, pero sí en varios.
Sí,REsizable bar habiltado
.
Er_Garry escribió:hh1 escribió:Sí, ya lo tenía puesto.
Hace cosas muy raras.
Pruebo Bright Memory Infinite con DLSS calidad 1440p.Y joder, con la 3080Ti me iba mejor.
Cuando la GPu se pone con el 99% de uso, muy bien.220-240fps.
Pero en casi todo el juego baja el uso y baja un huevo los fps en tramos a niveles, por lo que veo ,de una 3080.
De hecho, otra cosa curiosa, es que este juego puede usar RT y DLSS3, y a mí no me deja seleccionarlos.
No sé qué narices es.
Es como que a ratos va como debe y en otros, cae.Y cuando cae, ya no recupera esos fps.
No puede pegar esos bailes tan grandes de fps.No pasa en todos los juegos, pero sí en varios.
Sí,REsizable bar habiltado
.
Mmm, comprueba que tienes habilitado el GPU Scheduler por Hardware en el windows (Configuración->Sistema->Pantalla->Gráficos->Configuración de gráficos predeterminada), porque si no te habilita el DLSS 3 puede ser por eso.
Y en caso de que esté deshabilitado, eso puede explicar el uso errático que estás teniendo de la GPU
Salu2
Strait escribió:@hh1 Pregunta tonta ¿Tienes activado el resizable bar? Con el jaleo de que te haya petado la fuente y los constantes reinicios puede ser que la bios se te haya reseteado a valores de fábrica. Revisa también la velocidad de la ram y se si tienes el perfil xmp cargado correctamente.
Yo pasé de la 3080Ti a la 4080 y hay cosas que a 2k van igual por el tema de la limitación por CPU, pero cuando juego a 4k saca un 30-50% más de potencia según el juego.
calloudiano escribió:@hh1
Eres terco como cabra hombre
Esa diferencia de fps que ves es por la combinacion de cuello de botella que le hace la 4080 a ese 6+4C, es poco cpu para esa tarjeta, sumado a los 3000mhz de tu ram ddr4.
Cual es la parte mas importante de una PC?
-La CPU&PSU SIEMPRE
- La diferencia la hacen los FPS minimos
Mi regla de oro siempre que armo un equipo>
La cadena es tan fuerte como el mas debil de sus eslabones
Puedes probar hacer un formateo completo desde 0, mi metodo favorito cuando hay cambio de hardware, pero no creo que solucione ese cuello de botella, espero que no juegues a 1440p, perderias entre 20-30fps
Lo que yo haria>
1 Cambiar RAM (velocidades)
2 Cambiar a un 12700k ( para no gastar en placa nueva)
3 Jugar con ese combo a 4k
Chaquetero escribió:calloudiano escribió:@hh1
Eres terco como cabra hombre
Esa diferencia de fps que ves es por la combinacion de cuello de botella que le hace la 4080 a ese 6+4C, es poco cpu para esa tarjeta, sumado a los 3000mhz de tu ram ddr4.
Cual es la parte mas importante de una PC?
-La CPU&PSU SIEMPRE
- La diferencia la hacen los FPS minimos
Mi regla de oro siempre que armo un equipo>
La cadena es tan fuerte como el mas debil de sus eslabones
Puedes probar hacer un formateo completo desde 0, mi metodo favorito cuando hay cambio de hardware, pero no creo que solucione ese cuello de botella, espero que no juegues a 1440p, perderias entre 20-30fps
Lo que yo haria>
1 Cambiar RAM (velocidades)
2 Cambiar a un 12700k ( para no gastar en placa nueva)
3 Jugar con ese combo a 4k
lo que hay que leer.
@hh1 Has mirado que tu gráfica vaya a x16 y no a x8? Lo puedes mirar en el gpu-z. Puede que en determinados juegos ese ancho de banda se sature y te limiten los FPS.
ionesteraX escribió:@Baktor Yo los juego todos los que lo soportan con dlss3 y gsync, cero problemas.
[_-+-_] escribió:48 GB....
No se yo, ojala.
HaGeK escribió:@parh me alegro muchisimo de que estes contento, pero con ese hardware no se para que te gastas 1800 euros en una grafica con la que tienes mas cuello de botella que con un botijo. Sin ofender. Para tu equipo veo mejor una 4070ti que una 4090, pero bueno si tienes previsto ir renovando hard pues bien esta.
Lince_SPAIN escribió:@KindapearHD por supuesto que vale la pena, si es 100% estable tu gráfica con ese voltaje desde luego has triunfado, así a ojo le has quitado unos 70mV
KindapearHD escribió:Lince_SPAIN escribió:@KindapearHD por supuesto que vale la pena, si es 100% estable tu gráfica con ese voltaje desde luego has triunfado, así a ojo le has quitado unos 70mV
De momento he probado con Horizon Zero dawn, Warzone 2.0 y Resident Evil 3. Los 3 en 1440p. Ha funcionado perfectamente.
Lince_SPAIN escribió:KindapearHD escribió:Lince_SPAIN escribió:@KindapearHD por supuesto que vale la pena, si es 100% estable tu gráfica con ese voltaje desde luego has triunfado, así a ojo le has quitado unos 70mV
De momento he probado con Horizon Zero dawn, Warzone 2.0 y Resident Evil 3. Los 3 en 1440p. Ha funcionado perfectamente.
qué clok tiene tu gráfica asociado en la curva stock (después de darle al reset en Afterburner) en el punto de 1100mV? Pásale el MSI Kombustor destruye-undervolts a ver si te lo pasa también, el test 1 que sale por defecto, tarda 30 segundos cada uno y a poco que no sea estable la gráfica te tira al escritorio, usa los presets/benchmark 1080p y 1440p: https://geeks3d.com/dl/show/703
como referencia aquí tienes mis resultados, si estás en un 25% al alcance de los mismos con una 70 Ti te repito que has triunfado. 1080p - 178fps y por otro lado 1440p - 149 fps
parh escribió:HaGeK escribió:@parh me alegro muchisimo de que estes contento, pero con ese hardware no se para que te gastas 1800 euros en una grafica con la que tienes mas cuello de botella que con un botijo. Sin ofender. Para tu equipo veo mejor una 4070ti que una 4090, pero bueno si tienes previsto ir renovando hard pues bien esta.
pero sí lo he dicho, que a mi mientras este equipo me entregue los 4k 60fps es suficiente para mi. Me da igual si con el 3600 me llega a 66 fps y en cambio con placa y micro de ultima generacion me llega a 80fps. Esos fps extras "no los uso". No juego competitivo. Para jugar online al cod, lo hago en la ps5.
Cuando realmente me hagan falta, renovare el resto de componentes.
Baktor escribió:Alguien está utilizando DLSS3 con VSync? Cual es el mejor método para tener poca latencia con DLSS3 pero evitar tearing?
Baktor escribió:Alguien está utilizando DLSS3 con VSync? Cual es el mejor método para tener poca latencia con DLSS3 pero evitar tearing?
the_aeon escribió:Si tu monitor es 144hz, pues le pones 141 para que no haya tearing
BladeRunner escribió:the_aeon escribió:Si tu monitor es 144hz, pues le pones 141 para que no haya tearing
No hay que poner 144 fps?
the_aeon escribió:Baktor escribió:Alguien está utilizando DLSS3 con VSync? Cual es el mejor método para tener poca latencia con DLSS3 pero evitar tearing?
Activa la limitación de fps en el panel de control de nvdia.
Si tu monitor es 144hz, pues le pones 141 para que no haya tearing
BladeRunner escribió:the_aeon escribió:Si tu monitor es 144hz, pues le pones 141 para que no haya tearing
No hay que poner 144 fps?
parh escribió:la acogida a DLSS 3.0 entre la comunidad es practicamente unanime: dlss 3.0 es como un regalo del cielo para todos aquellos que disfrutamos de juegos single player y campañas.
Pacorrr escribió:parh escribió:la acogida a DLSS 3.0 entre la comunidad es practicamente unanime: dlss 3.0 es como un regalo del cielo para todos aquellos que disfrutamos de juegos single player y campañas.
Pues no deben tener muy bien la vista para ignorar los errores gráficos que produce.
parh escribió:Pacorrr escribió:parh escribió:la acogida a DLSS 3.0 entre la comunidad es practicamente unanime: dlss 3.0 es como un regalo del cielo para todos aquellos que disfrutamos de juegos single player y campañas.
Pues no deben tener muy bien la vista para ignorar los errores gráficos que produce.
algun error grafico en alguna situacion puntual habra, seguro. pero, vamos, en este caso son despreciables al lado del beneficio que produce: ni mas ni menos duplicar el rendimiento. Y seguro que lo van puliendo.