[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

KoGollin escribió:
John_Carpenter escribió:Para TV si. Pero para monitor de escritorio no recomendaría OLED ni aunque bajaran de precio, ya que debido a los quemados por el navegador, etc, sería algo que tendría que andar controlando tiempo y quiero estar libre de esas historias.


Aun teniendo buenos sistemas anti quemado, opino igual.
A poder ser, seria mejor dejarla de secundaria y exclusiva para jugar y tener otro tipo de panel para escritorio.

Yo tengo una IPS 1440p@144hz escritorio y jugar cuando me castigan y en el salón, una LG c9 Oled de 65" y la uso exclusivamente para jugar.

John_Carpenter escribió:Para TV si. Pero para monitor de escritorio no recomendaría OLED ni aunque bajaran de precio, ya que debido a los quemados por el navegador, etc, sería algo que tendría que andar controlando tiempo y quiero estar libre de esas historias.



@DaNi_0389 lleva más de dos años usando su tv oled para el pc y no tiene absolutamente ninguna quemada, cero.
@adriano_99

Yo llevo usando desde el 2016 oled en el pc (65E6 - 65G7 - 65E8 y 65E9) y 0 quemados aunque solo las aguanto 1 año también hay que decirlo pero ese año le doymuuucha caña :)
ARC0S4G4Z está baneado por "clon de usuario baneado"
RaulKO escribió:
KoGollin escribió:
Menudo bicho!!!

Pasa cuando puedas un 3dMArk y a ver por cuanto se mea a mi humilde kfa modificada [360º]


Tal y como tenía pendiente, aquí te pongo un TimeSpy (me he bajado la versión demo desde Steam):

Imagen

https://www.3dmark.com/3dm/56327406?

Decir que sale que los drivers no están aprobados seguramente porque llevo un hotfix de Nvidia (de la última versión) que descargué desde los foros de EVGA.

El test está con +800 de memoria, +200 de core, +50 de Votaje y con Power Target al 119%, además está con la BIOS oficial que sube el límite de potencia a 500W (solo la uso para benchmark ya que para jugar y tal uso la BIOS normal) y una opción del EVGA Precision que se llama Boost Lock, y que pone el core permanentemente a su máxima potencia (hasta que lo desactivas), incluso aunque estés en el escritorio (está pensado solo para benchmarks).

Según 3dMark, estoy a menos de mil puntos del mejor resultado del mundo con mi misma gráfica y procesador... no está mal... [beer]


Pues aun estas por debajo de la kaf 2 que tuve con bios de 390w . Si te fijas en tus clocks medios están por encima de los mios 2080mhz tu core medio por los 1988mhz del mio debido a la restricción de power. No obstante, es curioso pero saco mas puntos en score de gráficos... prueba a subirle mas la memos.Tu resultado aun me parece algo bajo para esa bicha, seguro puedes sacarle mas jugo ratataaaa

Imagen

https://www.3dmark.com/3dm/54101243
PCC debería de hacer algo con sus vendedores externos, esto es una verguenza:
Imagen
ARC0S4G4Z escribió:
RaulKO escribió:
KoGollin escribió:
Menudo bicho!!!

Pasa cuando puedas un 3dMArk y a ver por cuanto se mea a mi humilde kfa modificada [360º]


Tal y como tenía pendiente, aquí te pongo un TimeSpy (me he bajado la versión demo desde Steam):

Imagen

https://www.3dmark.com/3dm/56327406?

Decir que sale que los drivers no están aprobados seguramente porque llevo un hotfix de Nvidia (de la última versión) que descargué desde los foros de EVGA.

El test está con +800 de memoria, +200 de core, +50 de Votaje y con Power Target al 119%, además está con la BIOS oficial que sube el límite de potencia a 500W (solo la uso para benchmark ya que para jugar y tal uso la BIOS normal) y una opción del EVGA Precision que se llama Boost Lock, y que pone el core permanentemente a su máxima potencia (hasta que lo desactivas), incluso aunque estés en el escritorio (está pensado solo para benchmarks).

Según 3dMark, estoy a menos de mil puntos del mejor resultado del mundo con mi misma gráfica y procesador... no está mal... [beer]


Pues aun estas por debajo de la kaf 2 que tuve con bios de 390w . Si te fijas en tus clocks medios están por encima de los mios 2080mhz tu core medio por los 1988mhz del mio debido a la restricción de power. No obstante, es curioso pero saco mas puntos en score de gráficos... prueba a subirle mas la memos.Tu resultado aun me parece algo bajo para esa bicha, seguro puedes sacarle mas jugo ratataaaa

Imagen

https://www.3dmark.com/3dm/54101243


Es cierto que tu test me supera en puntuación gráfica. Dado que parece que en mi run he obtenido mayores velocidades de core, la diferencia podría venir de las memorias, probaré a subirlas algo mas aunque creo que aun tengo un poco de margen para subir el core...

De todas formas no es tan extraño que una tarjeta con menor TDP obtenga una mejor puntuación si el silicio acompaña. Al final al aumentar el TDP aumenta también la generación de calor, lo que en última instancia puede limitar la capacidad de OC a igualdad de disipación...

También, por lo que veo, tú manejas la versión de pago de 3dMark, lo que quiere decir que no estás obligado a pasar por la demo de TimeSpy siempre antes de ejecutar el test, lo que permite que inicies el test con la tarjeta mas fresquita que yo, habiéndome pasado varios minutos con la demo...

Si vamos a comparar, comparemos bien... [oki]

Volveré a pasar un test probando a subir algo más el core y memorias... [beer]
Joder por fin buenas noticias: he hablado con los de pcc y me han dicho que la semana que viene les entra stock de la 3070 gaming x trio y una de ellas es seguro para mi.
Si hay alguien mas esperando que le llegue ese modelo que esté al loro.
@adriano_99 Creo que con que no compremos a esos precios ya lo decimos "todo". Hoy mismo he recibido un correo de amazon (el primero que recibo desde Septiembre) que la Asus TUF 3080 (la 3080, no la 3090) esta disponible a 1464€ [+risas] [+risas] [+risas]
Viendo el tema, hasta empiezo a pensar que haber pillado en diciembre la 3090 por 1.500e fue hasta chollo [buenazo]

Como esta el mercado, flipante.


@RaulKO

Quiero dejar fijo a mi 3090 con auto undervolt del msi +85mhz core +200mhz las memoria, (Las memorias las dejo de serie). Es una kfa2 de dos conectores.

Se que el undervolt más que acortar la vida de la gráfica, la alarga incluso. Lo que no sé es en cuanto afecta subir de 350w a 390w. Me han comentado que la PCB puede aguantar hasta 500w pero no se como afecta en general a la tarjeta. Las temperaturas siempre tienen como máximo 70°.

Que opinas?
RaulKO escribió:
KoGollin escribió:
Menudo bicho!!!

Pasa cuando puedas un 3dMArk y a ver por cuanto se mea a mi humilde kfa modificada [360º]


Tal y como tenía pendiente, aquí te pongo un TimeSpy (me he bajado la versión demo desde Steam):

Imagen

https://www.3dmark.com/3dm/56327406?

Decir que sale que los drivers no están aprobados seguramente porque llevo un hotfix de Nvidia (de la última versión) que descargué desde los foros de EVGA.

El test está con +800 de memoria, +200 de core, +50 de Votaje y con Power Target al 119%, además está con la BIOS oficial que sube el límite de potencia a 500W (solo la uso para benchmark ya que para jugar y tal uso la BIOS normal) y una opción del EVGA Precision que se llama Boost Lock, y que pone el core permanentemente a su máxima potencia (hasta que lo desactivas), incluso aunque estés en el escritorio (está pensado solo para benchmarks).

Según 3dMark, estoy a menos de mil puntos del mejor resultado del mundo con mi misma gráfica y procesador... no está mal... [beer]


Esto es lo que da mi Asus ROG RTX 3090 OC con el TDP a 480W y +150 core y +800 memoria.
Veo que todas dan y escalan muy parecido sean de la marca que sean.

Imagen
ARC0S4G4Z está baneado por "clon de usuario baneado"
RaulKO escribió:
ARC0S4G4Z escribió:
RaulKO escribió:
Tal y como tenía pendiente, aquí te pongo un TimeSpy (me he bajado la versión demo desde Steam):

Imagen

https://www.3dmark.com/3dm/56327406?

Decir que sale que los drivers no están aprobados seguramente porque llevo un hotfix de Nvidia (de la última versión) que descargué desde los foros de EVGA.

El test está con +800 de memoria, +200 de core, +50 de Votaje y con Power Target al 119%, además está con la BIOS oficial que sube el límite de potencia a 500W (solo la uso para benchmark ya que para jugar y tal uso la BIOS normal) y una opción del EVGA Precision que se llama Boost Lock, y que pone el core permanentemente a su máxima potencia (hasta que lo desactivas), incluso aunque estés en el escritorio (está pensado solo para benchmarks).

Según 3dMark, estoy a menos de mil puntos del mejor resultado del mundo con mi misma gráfica y procesador... no está mal... [beer]


Pues aun estas por debajo de la kaf 2 que tuve con bios de 390w . Si te fijas en tus clocks medios están por encima de los mios 2080mhz tu core medio por los 1988mhz del mio debido a la restricción de power. No obstante, es curioso pero saco mas puntos en score de gráficos... prueba a subirle mas la memos.Tu resultado aun me parece algo bajo para esa bicha, seguro puedes sacarle mas jugo ratataaaa

Imagen

https://www.3dmark.com/3dm/54101243


Es cierto que tu test me supera en puntuación gráfica. Dado que parece que en mi run he obtenido mayores velocidades de core, la diferencia podría venir de las memorias, probaré a subirlas algo mas aunque creo que aun tengo un poco de margen para subir el core...

De todas formas no es tan extraño que una tarjeta con menor TDP obtenga una mejor puntuación si el silicio acompaña. Al final al aumentar el TDP aumenta también la generación de calor, lo que en última instancia puede limitar la capacidad de OC a igualdad de disipación...

También, por lo que veo, tú manejas la versión de pago de 3dMark, lo que quiere decir que no estás obligado a pasar por la demo de TimeSpy siempre antes de ejecutar el test, lo que permite que inicies el test con la tarjeta mas fresquita que yo, habiéndome pasado varios minutos con la demo...

Si vamos a comparar, comparemos bien... [oki]

Volveré a pasar un test probando a subir algo más el core y memorias... [beer]


La demo la puedes pasar con downcloks con solo asignarlo en el Msi AB puedes ponerla con el power limit al minimo memos en negativo y core tambien en negativo de tal modo que estando en agua no se calentara nada. Yo no lo veo handicap ya que el time spy dura super poco y vas en agua con una 3090 con mas headroom que no restringe tanto el core clock medio con 500W ... yo tenia throttling constante por power limit con la bios de 390w .Y recuerda que mi 3090 iba con aio sujeta con dos bridas [+risas] Imagen

Mis temps medias sin demo eran de 30 grados con demo hubieran sido igual haciendo lo que te he explicado del AB mientras bencheas puedes cambiar los perfiles de oc que tengas guardados sin salir al escritorio y asignarle el que quieras.

El compañero Kogollin tiene el mismo modelo de 3090 que tenia yo y el te puede decir lo limitadita que esta aun con 390W. Los resultados que le hice sacar fueron un milagro prodigioso créeme que es la 3090 custom mas capada del mercado... eso si también era la mas baratera por eso la pille. 1450 pague por ella en el black friday. Una bicha de 2100 euros tiene que rendir mas si o si. Aun no has tocado techo de eso estoy seguro.
adriano_99 escribió:PCC debería de hacer algo con sus vendedores externos, esto es una verguenza:
Imagen


Cuando deberia valer la del medio? La Gigabyte GeForce RTX 3070 GAMING OC 8GB GDDR6?

Lo digo porque esa la vende directamente PCComponentes, y justo la he comprado hace una hora o así. Al ser vendida por PCComponentes pensaba que es precio justo, pero si me la han colado la cancelo..

________

Si no, a ver que tal sale la gráfica. Iba a ir a por una 3080, pero entre los problemas de stock y las futuras posible 3080Ti o Super o yo que se cuantas 3080 quieren sacar, al final me he decidido tirar por una un poco mas "barata". También que mi fuente, siendo nueva y buena, es solo de 650W. Pequé de novato ahí y ya es tarde para devolverla y demasiado pronto para cambiarla.
La 3070 me saca del paso, espero que me dure un par de años bien y que por entonces ya no haya el drama de stock de gráficas que hay a dia de hoy. Y por esa época si tengo que cambiar la fuente ya no me dolerá tanto.
dramake escribió:
adriano_99 escribió:PCC debería de hacer algo con sus vendedores externos, esto es una verguenza:
Imagen


Cuando deberia valer la del medio? La Gigabyte GeForce RTX 3070 GAMING OC 8GB GDDR6?

Lo digo porque esa la vende directamente PCComponentes, y justo la he comprado hace una hora o así. Al ser vendida por PCComponentes pensaba que es precio justo, pero si me la han colado la cancelo..

________

Si no, a ver que tal sale la gráfica. Iba a ir a por una 3080, pero entre los problemas de stock y las futuras posible 3080Ti o Super o yo que se cuantas 3080 quieren sacar, al final me he decidido tirar por una un poco mas "barata". También que mi fuente, siendo nueva y buena, es solo de 650W. Pequé de novato ahí y ya es tarle para devolverla y demasiado pronto para cambiarla.
La 3070 me saca del paso, espero que me dure un par de años bien y que por entonces ya no haya el drama de stock de gráficas que hay a dia de hoy. Y por esa época si tengo que cambiar la fuente ya no me dolerá tanto.

La del medio esta solo un pelin cara, el mensaje iba por la de los lados que son vendidas por terceros y están infladisimas.
ARC0S4G4Z escribió:
RaulKO escribió:
ARC0S4G4Z escribió:
Pues aun estas por debajo de la kaf 2 que tuve con bios de 390w . Si te fijas en tus clocks medios están por encima de los mios 2080mhz tu core medio por los 1988mhz del mio debido a la restricción de power. No obstante, es curioso pero saco mas puntos en score de gráficos... prueba a subirle mas la memos.Tu resultado aun me parece algo bajo para esa bicha, seguro puedes sacarle mas jugo ratataaaa

Imagen

https://www.3dmark.com/3dm/54101243


Es cierto que tu test me supera en puntuación gráfica. Dado que parece que en mi run he obtenido mayores velocidades de core, la diferencia podría venir de las memorias, probaré a subirlas algo mas aunque creo que aun tengo un poco de margen para subir el core...

De todas formas no es tan extraño que una tarjeta con menor TDP obtenga una mejor puntuación si el silicio acompaña. Al final al aumentar el TDP aumenta también la generación de calor, lo que en última instancia puede limitar la capacidad de OC a igualdad de disipación...

También, por lo que veo, tú manejas la versión de pago de 3dMark, lo que quiere decir que no estás obligado a pasar por la demo de TimeSpy siempre antes de ejecutar el test, lo que permite que inicies el test con la tarjeta mas fresquita que yo, habiéndome pasado varios minutos con la demo...

Si vamos a comparar, comparemos bien... [oki]

Volveré a pasar un test probando a subir algo más el core y memorias... [beer]


La demo la puedes pasar con downcloks con solo asignarlo en el Msi AB puedes ponerla con el power limit al minimo memos en negativo y core tambien en negativo de tal modo que estando en agua no se calentara nada. Yo no lo veo handicap ya que el time spy dura super poco y vas en agua con una 3090 con mas headroom que no restringe tanto el core clock medio con 500W ... yo tenia throttling constante por power limit con la bios de 390w .Y recuerda que mi 3090 iba con aio sujeta con dos bridas [+risas] Imagen

Mis temps medias sin demo eran de 30 grados con demo hubieran sido igual haciendo lo que te he explicado del AB mientras bencheas puedes cambiar los perfiles de oc que tengas guardados sin salir al escritorio y asignarle el que quieras.

El compañero Kogollin tiene el mismo modelo de 3090 que tenia yo y el te puede decir lo limitadita que esta aun con 390W. Los resultados que le hice sacar fueron un milagro prodigioso créeme que es la 3090 custom mas capada del mercado... eso si también era la mas baratera por eso la pille. 1450 pague por ella en el black friday. Una bicha de 2100 euros tiene que rendir mas si o si. Aun no has tocado techo de eso estoy seguro.


No dudo para nada del mérito tuyo a la hora de OCar la 3090 y meterle un bloque de agua con bridas... la verdad es que los resultados que sacaste son muy buenos, lo que es atribuible también al chip de la tarjeta en cuestión además de tus habilidades... de todas formas, no es tampoco mi intención iniciar una competición por ver quien OCa mejor. No es que yo sea ningún experto pero llevo tiempo en esto y siempre cuando compro una tarjeta nueva me gusta frickear un poco con ella... al final crearé 4 o 5 perfiles de OC distintos (desde light hasta extremo) y los iré usando según se de la ocasión...

Es buena idea lo hacer underclock en la parte de la demo la verdad... aunque tampoco creo que vaya a suponer un gran cambio...

@beatle excelente resultado. En tu caso me sacas 2.000 puntos en procesador y yo te supero (por poco) en la parte gráfica... [oki]

KoGollin escribió:Viendo el tema, hasta empiezo a pensar que haber pillado en diciembre la 3090 por 1.500e fue hasta chollo [buenazo]

Como esta el mercado, flipante.


@RaulKO

Quiero dejar fijo a mi 3090 con auto undervolt del msi +85mhz core +200mhz las memoria, (Las memorias las dejo de serie). Es una kfa2 de dos conectores.

Se que el undervolt más que acortar la vida de la gráfica, la alarga incluso. Lo que no sé es en cuanto afecta subir de 350w a 390w. Me han comentado que la PCB puede aguantar hasta 500w pero no se como afecta en general a la tarjeta. Las temperaturas siempre tienen como máximo 70°.

Que opinas?


La verdad es que no te se decir... en mi caso soy demasiado inquieto como para tener un componente tanto como para preocuparme por posibles acortamientos de su vida útil...

Dicho esto, creo que hacer OC light como el que tú comentas no debería impactar en exceso la vida útil siempre que contemos con buena ventilación y buena calidad de la corriente eléctrica.

Personalmente nunca he hecho undervolt en GPU y no soy muy partidario, lo que yo quiero es aprovechar la maxima potencia posible sin llegar a freír la tarjeta, pues para 4K/60fps necesito toda potencia que pueda sacar...
@RaulKO

Lo que me preocupa mas que el undervolt es el tema de los 40w extras de tdp. No se como afecta a la vida útil.

Referente a las fuente eléctrica, tenía una Corsair 750rmi pero por si las moscas, le compre una nzxt 850c, que es una Seasonic 850 +.

Vamos estable como una roca en tensión y watios.
Esta tarde he logrado pillar una 3070 giganyte eagle para un amigo que no tiene tiempo para estar pendiente de los stocks, que raro que hayan puedo stock a estas horas.
Buena refrigeración y el no hace oc ni nada.
Algún tuto para sacarle jugo a la 3090 aunq no me hace ninguna falta, pero para ver si rinde bien y tal y como se hace el OC para un futuro... llevo tiempo apartado del mundillo xD
KoGollin escribió:@RaulKO

Lo que me preocupa mas que el undervolt es el tema de los 40w extras de tdp. No se como afecta a la vida útil.

Referente a las fuente eléctrica, tenía una Corsair 750rmi pero por si las moscas, le compre una nzxt 850c, que es una Seasonic 850 +.

Vamos estable como una roca en tensión y watios.


Buena fuente esa que tienes... [oki]

Entiendo pero sigo sin poder arrojarte luz en ese tema... creo que hay gente en el foro con mucho mas conocimiento que seguro te podrán orientar, pero vamos, principalmente eso tiene que ver con el hecho de si los componentes están preparados para 390W y han sido capados por firmware con un interés comercial, que yo es lo que creo, o bien la limitación es realmente de los componentes (y el firmware solo se asegura de que no se excede esa limitación).

Por ejemplo en EVGA la FTW3 viene capada en 450W pero hay una BIOS oficial (sacada por EVGA) que aumenta dicho margen hasta los 500W. Eso quiere decir que en principio los componentes son capaces de aguantar esa capacidad sin perder la garantía, por tanto, sin tener impacto en su vida útil o siendo este asumible o poco importante.

En definitiva creo que es un riesgo menor pero que, en cualquier caso, cada uno debe valorar...
adriano_99 escribió:Esta tarde he logrado pillar una 3070 giganyte eagle para un amigo que no tiene tiempo para estar pendiente de los stocks, que raro que hayan puedo stock a estas horas.
Buena refrigeración y el no hace oc ni nada.

Esta tarde han metido muchisimas 3070 en venta durante bastante rato y diferentes modelos, ya veremos si luego cancelan
dramake escribió:
adriano_99 escribió:PCC debería de hacer algo con sus vendedores externos, esto es una verguenza:
Imagen


Cuando deberia valer la del medio? La Gigabyte GeForce RTX 3070 GAMING OC 8GB GDDR6?

Lo digo porque esa la vende directamente PCComponentes, y justo la he comprado hace una hora o así. Al ser vendida por PCComponentes pensaba que es precio justo, pero si me la han colado la cancelo..

________

Si no, a ver que tal sale la gráfica. Iba a ir a por una 3080, pero entre los problemas de stock y las futuras posible 3080Ti o Super o yo que se cuantas 3080 quieren sacar, al final me he decidido tirar por una un poco mas "barata". También que mi fuente, siendo nueva y buena, es solo de 650W. Pequé de novato ahí y ya es tarde para devolverla y demasiado pronto para cambiarla.
La 3070 me saca del paso, espero que me dure un par de años bien y que por entonces ya no haya el drama de stock de gráficas que hay a dia de hoy. Y por esa época si tengo que cambiar la fuente ya no me dolerá tanto.

Yo no pagaría eso por una 3070.Pero ahí ha eres tú el que debe valorar cuánto quiere y le parece bien pagar.
De las de los lados,ya ni hablamos.
Yo no daria mas de 550/570€ por una 3070.

Por cierto, otros drivers nuevos que no arreglan una mierda, bugs de hace meses y los crasheos del driver navegando siguen ahí, aun sigo en 457.09 que era el primer driver de 3070 con Maximo rendimiento en el panel.
leonigsxr1000 escribió:@adriano_99

Yo llevo usando desde el 2016 oled en el pc (65E6 - 65G7 - 65E8 y 65E9) y 0 quemados aunque solo las aguanto 1 año también hay que decirlo pero ese año le doymuuucha caña :)


Y eso?, tiras de garantía para renovar?.
javato escribió:
leonigsxr1000 escribió:@adriano_99

Yo llevo usando desde el 2016 oled en el pc (65E6 - 65G7 - 65E8 y 65E9) y 0 quemados aunque solo las aguanto 1 año también hay que decirlo pero ese año le doymuuucha caña :)


Y eso?, tiras de garantía para renovar?.


Mas bien tiro de billetera jaja. vendo la del año pasado y compro la nueva
RaulKO escribió:
KoGollin escribió:@RaulKO

Lo que me preocupa mas que el undervolt es el tema de los 40w extras de tdp. No se como afecta a la vida útil.

Referente a las fuente eléctrica, tenía una Corsair 750rmi pero por si las moscas, le compre una nzxt 850c, que es una Seasonic 850 +.

Vamos estable como una roca en tensión y watios.


Buena fuente esa que tienes... [oki]

Entiendo pero sigo sin poder arrojarte luz en ese tema... creo que hay gente en el foro con mucho mas conocimiento que seguro te podrán orientar, pero vamos, principalmente eso tiene que ver con el hecho de si los componentes están preparados para 390W y han sido capados por firmware con un interés comercial, que yo es lo que creo, o bien la limitación es realmente de los componentes (y el firmware solo se asegura de que no se excede esa limitación).

Por ejemplo en EVGA la FTW3 viene capada en 450W pero hay una BIOS oficial (sacada por EVGA) que aumenta dicho margen hasta los 500W. Eso quiere decir que en principio los componentes son capaces de aguantar esa capacidad sin perder la garantía, por tanto, sin tener impacto en su vida útil o siendo este asumible o poco importante.

En definitiva creo que es un riesgo menor pero que, en cualquier caso, cada uno debe valorar...



La bios xoc beta de evga de 500w funciona en todas menos en evga , la ftw3 parecen tener una limitación en la entrega de energía y están limitadas a 450w , evga está investigando el tema, lo comento porque yo tengo una y da igual la bios que pongas que no pasa de 450w, la gente está metiendo la de la xc3 de 2x8 pines que se salta esa limitación.

Saludos.
Ivy lake está baneado por "troll"
Los conectores de 8 pines pueden suministrar, como máximo, 180 w de potencia, no entiendo que hace la gente poniéndole BIOS o subiéndole el power limit por encima de 360w a sus gráficas cuando no están preparadas para ello. Es más, yo a la mía le hice undervolt para que no estuviese tan al límite en cuanto al consumo.

Luego que no lloren cuando se les quemen.
@ram Lo que comentas de las EVGA afecta a las FTW3 y por lo que se dice en sus foros es una limitación por hardware que no tiene la XC3 y que no podrá saltarse. De todas maneras, a no ser que seas overclocker extremo no creo que tenga importancia.
Dfx escribió:@ram Lo que comentas de las EVGA afecta a las FTW3 y por lo que se dice en sus foros es una limitación por hardware que no tiene la XC3 y que no podrá saltarse. De todas maneras, a no ser que seas overclocker extremo no creo que tenga importancia.



Ya no es ser extremo ,es pagar 1900€ por algo que rinde igual o menos que otras por 200-300€ menos, evga nos la ha colado a base de bien esta generación.
ram escribió:
RaulKO escribió:
KoGollin escribió:@RaulKO

Lo que me preocupa mas que el undervolt es el tema de los 40w extras de tdp. No se como afecta a la vida útil.

Referente a las fuente eléctrica, tenía una Corsair 750rmi pero por si las moscas, le compre una nzxt 850c, que es una Seasonic 850 +.

Vamos estable como una roca en tensión y watios.


Buena fuente esa que tienes... [oki]

Entiendo pero sigo sin poder arrojarte luz en ese tema... creo que hay gente en el foro con mucho mas conocimiento que seguro te podrán orientar, pero vamos, principalmente eso tiene que ver con el hecho de si los componentes están preparados para 390W y han sido capados por firmware con un interés comercial, que yo es lo que creo, o bien la limitación es realmente de los componentes (y el firmware solo se asegura de que no se excede esa limitación).

Por ejemplo en EVGA la FTW3 viene capada en 450W pero hay una BIOS oficial (sacada por EVGA) que aumenta dicho margen hasta los 500W. Eso quiere decir que en principio los componentes son capaces de aguantar esa capacidad sin perder la garantía, por tanto, sin tener impacto en su vida útil o siendo este asumible o poco importante.

En definitiva creo que es un riesgo menor pero que, en cualquier caso, cada uno debe valorar...



La bios xoc beta de evga de 500w funciona en todas menos en evga , la ftw3 parecen tener una limitación en la entrega de energía y están limitadas a 450w , evga está investigando el tema, lo comento porque yo tengo una y da igual la bios que pongas que no pasa de 450w, la gente está metiendo la de la xc3 de 2x8 pines que se salta esa limitación.

Saludos.


Sí, voy siguiendo el hilo en el foro oficial de EVGA donde se está siguiendo el tema. Pero vamos, en mi caso la XOC oficial sí que hace que aumente el consumo de la tarjeta y la he estado usando para benchmarks con bastante buen resultado, pero cierto es que yo no soy overclocker extremo y de normal uso la BIOS principal por defecto.

De todas formas manda webs que las tarjetas "premiun" con 3 pines tengan una limitación que las hermanas de 2 pines no tienen... por ahí he visto que hay una forma de resolver la limitación pero implica modificar el panel de la tarjeta y arriesgarte a perder la garantía... cosa que yo no voy a intentar hacer ni loco...
ARC0S4G4Z está baneado por "clon de usuario baneado"
RaulKO escribió:
ram escribió:
RaulKO escribió:
Buena fuente esa que tienes... [oki]

Entiendo pero sigo sin poder arrojarte luz en ese tema... creo que hay gente en el foro con mucho mas conocimiento que seguro te podrán orientar, pero vamos, principalmente eso tiene que ver con el hecho de si los componentes están preparados para 390W y han sido capados por firmware con un interés comercial, que yo es lo que creo, o bien la limitación es realmente de los componentes (y el firmware solo se asegura de que no se excede esa limitación).

Por ejemplo en EVGA la FTW3 viene capada en 450W pero hay una BIOS oficial (sacada por EVGA) que aumenta dicho margen hasta los 500W. Eso quiere decir que en principio los componentes son capaces de aguantar esa capacidad sin perder la garantía, por tanto, sin tener impacto en su vida útil o siendo este asumible o poco importante.

En definitiva creo que es un riesgo menor pero que, en cualquier caso, cada uno debe valorar...



La bios xoc beta de evga de 500w funciona en todas menos en evga , la ftw3 parecen tener una limitación en la entrega de energía y están limitadas a 450w , evga está investigando el tema, lo comento porque yo tengo una y da igual la bios que pongas que no pasa de 450w, la gente está metiendo la de la xc3 de 2x8 pines que se salta esa limitación.

Saludos.


Sí, voy siguiendo el hilo en el foro oficial de EVGA donde se está siguiendo el tema. Pero vamos, en mi caso la XOC oficial sí que hace que aumente el consumo de la tarjeta y la he estado usando para benchmarks con bastante buen resultado, pero cierto es que yo no soy overclocker extremo y de normal uso la BIOS principal por defecto.

De todas formas manda webs que las tarjetas "premiun" con 3 pines tengan una limitación que las hermanas de 2 pines no tienen... por ahí he visto que hay una forma de resolver la limitación pero implica modificar el panel de la tarjeta y arriesgarte a perder la garantía... cosa que yo no voy a intentar hacer ni loco...

creo recordar que es por la derivación del resistor de 5 miliohmios del pcie si se puentea haciendo shunt mod se resuelve el tema, se puede hacer con silicona termofusible es fácil de poner y quitar y no deja rastro
ARC0S4G4Z escribió:creo recordar que es por la derivación del resistor de 5 miliohmios del pcie si se puentea haciendo shunt mod se resuelve el tema, se puede hacer con silicona termofusible es fácil de poner y quitar y no deja rastro


Es exactamente lo que comentas. Se nota que controlas... [beer]
Ivy lake escribió:Los conectores de 8 pines pueden suministrar, como máximo, 180 w de potencia, no entiendo que hace la gente poniéndole BIOS o subiéndole el power limit por encima de 360w a sus gráficas cuando no están preparadas para ello. Es más, yo a la mía le hice undervolt para que no estuviese tan al límite en cuanto al consumo.

Luego que no lloren cuando se les quemen.


No tienes ni idea, simpático.

No metes ni siquiera lo que puede chupar la gráfica por el puerto PCI.
Como mucho puedes derretir los conectores pero para eso se necesita mas de los 360w de tu equacion.
ARC0S4G4Z está baneado por "clon de usuario baneado"
KoGollin escribió:
Ivy lake escribió:Los conectores de 8 pines pueden suministrar, como máximo, 180 w de potencia, no entiendo que hace la gente poniéndole BIOS o subiéndole el power limit por encima de 360w a sus gráficas cuando no están preparadas para ello. Es más, yo a la mía le hice undervolt para que no estuviese tan al límite en cuanto al consumo.

Luego que no lloren cuando se les quemen.


No tienes ni idea, simpático.

No metes ni siquiera lo que puede chupar la gráfica por el puerto PCI.

Como mucho puedes derretir los conectores pero para eso se necesita mas de los 360w de tu equacion.


@ivylake Con la 2080ti que tengo aqui pinchada sin ir mas lejos, con la bios de 1000W tengo picos de 520W en time spy o superposition, solo tiene dos conectores de 8 y no se ha quemado nada aun [+risas]

De hecho le he estado dando al ,Metro Exodus en nueva partida + @ 4k ultra con rayos en ultra también, llevo horas dándole que te pego y no la he visto llegar a 40 grados... tampoco huelo a quemado, lleva asi un mes con la bios de 1000W [fumando]

Imagen

Un cable PCI-Express de 8 pines de la fuente de alimentación es capaz de proporcionar de manera segura hasta 288 W, mientras que un conector de 8 pines puede entregar hasta 216 W. Ergo 216 W x 2 + 75 W del pci-expres son 507 W sin tener que preocuparte. Eso si, si tu psu es un truño entonces apaga y vamonos [sonrisa] En el caso de la mia tiene 1200W y es de la buenas
leonigsxr1000 escribió:Mas bien tiro de billetera jaja. vendo la del año pasado y compro la nueva


[qmparto] [qmparto] [qmparto] [toctoc]
http://extremetechcr.com/tienda/compone ... s-hdr.html

Hola cabrones, vengo con impresiones, dudas y comentarios respecto a ese monitor. Lo prometido es deuda.

Imagen
Imagen

Lo primero es lo primero, se supone que el monitor es 2560x1440p, cómo es posible que tenga soporte para el formato 21:9???

La diferencia de 16:9 a 21:9 es palpable. En el caso del trials Rising me dejó poner una resolución altísima y ojo, no use el DSR de nvidia.

Imagen
Imagen

En RDR 2 lo miro muy amplio el ancho, será que aplicó de igual forma el 21:9???, no recuerdo haber visto los juegos así en mi pantalla 4k....
No obstante, probé en Monster Hunter World y al poner el 21:9 tenía franjas negras, no entiendo nada. [jaja]

Me estoy volviendo loco o estoy viendo cosas que no son [qmparto].

El G sync de Nvidia funciona de la mil maravillas, muy recomendable activar la baja latencia en el panel en ON... De hecho Nvidia debería de activar eso por defecto, mejora mucho la comunicación/respuesta y elimina prácticamente el shutering. Al menos esa sensación he tenido en juegos como Black ops 3 y Fallout 4.

Imagen


Los colores son lindos y he optado por no usar el HDR, dado que sin él aprecio una mayor calidad de la imagen y puedo disfrutar de los 165hz con display port, si activo el HDR la frecuencia baja a 120hz, probablemente sea cosa del cable.

Jugando online siento mucha suavidad en Battlefield 5 y la mejora, percepción y experiencia en general es muy superior a cualquier otra que haya vivido. Es mi 1er monitor así y no tengo mucho de donde agarrar como para comparar pero es fantástico.

Si tengo que poner alguna contra.... Sería que a 1440p, el DLSS emborrona mucho la imagen y prácticamente te obliga a usar el filtro de nitidez del panel de Nvidia, sin contar de que muchos juegos no activan esa tecnología a esa resolución.
Por suerte, a 1440p en juegos pesados como control, BF5, tengo un excelente frame rate con el Trazado de rayos maximizado y en ultra, bajo una RTX 3070 + I5 10400F... Sin DLSS, recalco.

Aprecio también algunas fugaz de luz ... Pero en términos generales es un buen monitor. Muy satisfecho.
El-Gabo escribió:http://extremetechcr.com/tienda/componentes/4600-gigabyte-g32qc-2k-165-hz-1-ms-hdr.html

Hola cabrones, vengo con impresiones, dudas y comentarios respecto a ese monitor. Lo prometido es deuda.

Imagen
Imagen

Lo primero es lo primero, se supone que el monitor es 2560x1440p, cómo es posible que tenga soporte para el formato 21:9???

La diferencia de 16:9 a 21:9 es palpable. En el caso del trials Rising me dejó poner una resolución altísima y ojo, no use el DSR de nvidia.

Imagen
Imagen

En RDR 2 lo miro muy amplio el ancho, será que aplicó de igual forma el 21:9???, no recuerdo haber visto los juegos así en mi pantalla 4k....
No obstante, probé en Monster Hunter World y al poner el 21:9 tenía franjas negras, no entiendo nada. [jaja]

Me estoy volviendo loco o estoy viendo cosas que no son [qmparto].

El G sync de Nvidia funciona de la mil maravillas, muy recomendable activar la baja latencia en el panel en ON... De hecho Nvidia debería de activar eso por defecto, mejora mucho la comunicación/respuesta y elimina prácticamente el shutering. Al menos esa sensación he tenido en juegos como Black ops 3 y Fallout 4.

Imagen


Los colores son lindos y he optado por no usar el HDR, dado que sin él aprecio una mayor calidad de la imagen y puedo disfrutar de los 165hz con display port, si activo el HDR la frecuencia baja a 120hz, probablemente sea cosa del cable.

Jugando online siento mucha suavidad en Battlefield 5 y la mejora, percepción y experiencia en general es muy superior a cualquier otra que haya vivido. Es mi 1er monitor así y no tengo mucho de donde agarrar como para comparar pero es fantástico.

Si tengo que poner alguna contra.... Sería que a 1440p, el DLSS emborrona mucho la imagen y prácticamente te obliga a usar el filtro de nitidez del panel de Nvidia, sin contar de que muchos juegos no activan esa tecnología a esa resolución.
Por suerte, a 1440p en juegos pesados como control, BF5, tengo un excelente frame rate con el Trazado de rayos maximizado y en ultra, bajo una RTX 3070 + I5 10400F... Sin DLSS, recalco.

Aprecio también algunas fugaz de luz ... Pero en términos generales es un buen monitor. Muy satisfecho.

Lo del que DLSS emborrona...Depende.
Ayer estuve viendo análisis y depende del tipo de DLSS que metas y del juego.
En la mayoría de juegos ni se notaba diferencia ,en algunos hasta mejoraba y en una mínima parte de veía un poco peor.

De hecho ,el BV era uno de los que mejoraba en modo calidad a un 1440p standard.
En Control ponía que no se notaba diferencia alguna con el 1440p original.
John_Carpenter escribió:Para TV si. Pero para monitor de escritorio no recomendaría OLED ni aunque bajaran de precio, ya que debido a los quemados por el navegador, etc, sería algo que tendría que andar controlando tiempo y quiero estar libre de esas historias.

Yo ya asumi el reto con mi 48 CX y cierto es que lo que mas miedo tengo es a la barra de direcciones, pestañas y marcadores de Chrome, qué les costaba que fuera como la barra de tareas de windows? que se pueda ocultar y al pasar el mouse hacia arriba se mostrase? me parece un coñazo tener que pulsar f11, yo nunca lo pulso por cierto.

Lo que hago es alternar, a veces pongo el navegador maximizado, otras lo maximizo a 90% y lo cambio de altura, derecha, izquierda etc...

Llevo desde finales de noviembre y de momento bien.

Pero es algo que ya sabia que iba a tener que hacer, asi que cero sorpresas
Entre una 3070 OC TUF o una Strix de asus ambas, cual pillariais? ambas al mismo precio, gracias.
@fuji Ninguna, esperaría a las super que vendrán con 12 y 16gb supuestamente de vram. Si hay que elegir una, me quedaría con la strix.
Pulet escribió:@fuji Ninguna, esperaría a las super que vendrán con 12 y 16gb supuestamente de vram. Si hay que elegir una, me quedaría con la strix.



Oki me pensare eso pues, mil gracias por la respuesta!
Pulet escribió:@fuji Ninguna, esperaría a las super que vendrán con 12 y 16gb supuestamente de vram. Si hay que elegir una, me quedaría con la strix.


Se sabe para cuando saldrían?
Lucas11 escribió:
Pulet escribió:@fuji Ninguna, esperaría a las super que vendrán con 12 y 16gb supuestamente de vram. Si hay que elegir una, me quedaría con la strix.


Se sabe para cuando saldrían?


Pues deben estar al caer, pero no habrá stock, asi que realmente a saber cuándo te podrás hacer con alguna. Además el tema Covid va a peor...
Lucas11 escribió:
Pulet escribió:@fuji Ninguna, esperaría a las super que vendrán con 12 y 16gb supuestamente de vram. Si hay que elegir una, me quedaría con la strix.


Se sabe para cuando saldrían?


El martes 12 a las 18h supuestamente se anuncian.

Ya veremos.
Yo ando desesperado por algo como la 3050/3050ti, pero viendo el panorama dudo que pueda pillar alguna a corto plazo. Y ya hablando de gráficas de entrada de hace un año o más no hablo, que a penas hay y si quedan solo las ofrecen en ordenador montado.
Buenas!

Dos días llevo disfrutando de mi Zotac 3080 AMP HOLO, os dejo mis impresiones

Primero de todo decir que estéticamente es muy bonita auque es enorme, para poder ponerla he tenido que desconectar el speaker de la placa base (ASUS TUF GAMING B550 PLUS WIFI).

Su rendimiento creo que es bueno aunque es calentorra y un poco ruidosa aunque a mi no me molesta, con los cascos no escucho el ruido del ventilador.

Le aplicado undervolt con MSI afterburner: -90 Power Limit / +150 Core Clock / + 900 Memore Clock y es estable.

Imagen

La curva de los ventiladores la he subido un poco para tener temperaturas más bajas, (unos 70ª jugando con todo al máximo al DOOM y al call of duty Cold War a 2k durante algo más de una hora a cada uno).

Imagen

Por último he pasado el benchmark de la demo de 3dmark y me ha dado estos resultados, la temperatura máxima en el test ha sido de 62º.

Imagen

¿Es un buen rendimiento para una 3080? sin duda creo que sus temperaturas son algo altas y que en verano alcanzará los 80º fácilmente.

Un saludo
ARC0S4G4Z está baneado por "clon de usuario baneado"
SEÑOR[X] escribió:Buenas!

Dos días llevo disfrutando de mi Zotac 3080 AMP HOLO, os dejo mis impresiones

Primero de todo decir que estéticamente es muy bonita auque es enorme, para poder ponerla he tenido que desconectar el speaker de la placa base (ASUS TUF GAMING B550 PLUS WIFI).

Su rendimiento creo que es bueno aunque es calentorra y un poco ruidosa aunque a mi no me molesta, con los cascos no escucho el ruido del ventilador.

Le aplicado undervolt con MSI afterburner: -90 Power Limit / +150 Core Clock / + 900 Memore Clock y es estable.

Imagen

La curva de los ventiladores la he subido un poco para tener temperaturas más bajas, (unos 70ª jugando con todo al máximo al DOOM y al call of duty Cold War a 2k durante algo más de una hora a cada uno).

Imagen

Por último he pasado el benchmark de la demo de 3dmark y me ha dado estos resultados, la temperatura máxima en el test ha sido de 62º.

Imagen

¿Es un buen rendimiento para una 3080? sin duda creo que sus temperaturas son algo altas y que en verano alcanzará los 80º fácilmente.

Un saludo


Eso no es hacer undervolt ...le has capado el power limit un 10% básicamente. Osea no mantienes un voltaje determinado manual sino que tu gpu según juego o bench le meterá un voltaje dinámico dependiendo del headroom dentro de ese 90% que has asignado.

Sobre los resultados los veo algo flojetes. Para ir bien tendrias que superar los 19 mil en gráficos

Imagen

Esto es un undervolt manual conservando todo el headroom disponible en power . De casa se me pone a 1.062 v y 2030mhz core / 7200mhz memos y yo la he puesto @ 975mv fijjos y 2040mhz core con + 1000 en memos
Su puede comprar ya una 3070 o 3080 o está el tema como con las ps5???
ARC0S4G4Z está baneado por "clon de usuario baneado"
oso^Yonki escribió:Su puede comprar ya una 3070 o 3080 o está el tema como con las ps5???


En tiendas online esta jodido. En wallapop hoy mismo he estado negociando una 3080 por 850
En amazon van saliendo, pero vaya precios no?¿ 780 euros la 3070 vendida por ellos.

https://www.amazon.es/Gigabyte-AORUS-Ge ... B08LNY8P5L
fuji escribió:En amazon van saliendo, pero vaya precios no?¿ 780 euros la 3070 vendida por ellos.

https://www.amazon.es/Gigabyte-AORUS-Ge ... B08LNY8P5L


Y cuando las sacaron todos vendiendo como locos las rtx2000 porque esta costaba 500€...
Pulet escribió:
fuji escribió:En amazon van saliendo, pero vaya precios no?¿ 780 euros la 3070 vendida por ellos.

https://www.amazon.es/Gigabyte-AORUS-Ge ... B08LNY8P5L


Y cuando las sacaron todos vendiendo como locos las rtx2000 porque esta costaba 500€...

Muchos aquí han comprado la zotac por 520 y yo me he gastado 580 por un modelo premium con refrigeración de sobras y bien bonita con lucecitas.
Ivy lake está baneado por "troll"
....
31123 respuestas