KoGollin escribió:John_Carpenter escribió:Para TV si. Pero para monitor de escritorio no recomendaría OLED ni aunque bajaran de precio, ya que debido a los quemados por el navegador, etc, sería algo que tendría que andar controlando tiempo y quiero estar libre de esas historias.
Aun teniendo buenos sistemas anti quemado, opino igual.
A poder ser, seria mejor dejarla de secundaria y exclusiva para jugar y tener otro tipo de panel para escritorio.
Yo tengo una IPS 1440p@144hz escritorio y jugar cuando me castigan y en el salón, una LG c9 Oled de 65" y la uso exclusivamente para jugar.
John_Carpenter escribió:Para TV si. Pero para monitor de escritorio no recomendaría OLED ni aunque bajaran de precio, ya que debido a los quemados por el navegador, etc, sería algo que tendría que andar controlando tiempo y quiero estar libre de esas historias.
RaulKO escribió:KoGollin escribió:
Menudo bicho!!!
Pasa cuando puedas un 3dMArk y a ver por cuanto se mea a mi humilde kfa modificada
Tal y como tenía pendiente, aquí te pongo un TimeSpy (me he bajado la versión demo desde Steam):
https://www.3dmark.com/3dm/56327406?
Decir que sale que los drivers no están aprobados seguramente porque llevo un hotfix de Nvidia (de la última versión) que descargué desde los foros de EVGA.
El test está con +800 de memoria, +200 de core, +50 de Votaje y con Power Target al 119%, además está con la BIOS oficial que sube el límite de potencia a 500W (solo la uso para benchmark ya que para jugar y tal uso la BIOS normal) y una opción del EVGA Precision que se llama Boost Lock, y que pone el core permanentemente a su máxima potencia (hasta que lo desactivas), incluso aunque estés en el escritorio (está pensado solo para benchmarks).
Según 3dMark, estoy a menos de mil puntos del mejor resultado del mundo con mi misma gráfica y procesador... no está mal...
ARC0S4G4Z escribió:RaulKO escribió:KoGollin escribió:
Menudo bicho!!!
Pasa cuando puedas un 3dMArk y a ver por cuanto se mea a mi humilde kfa modificada
Tal y como tenía pendiente, aquí te pongo un TimeSpy (me he bajado la versión demo desde Steam):
https://www.3dmark.com/3dm/56327406?
Decir que sale que los drivers no están aprobados seguramente porque llevo un hotfix de Nvidia (de la última versión) que descargué desde los foros de EVGA.
El test está con +800 de memoria, +200 de core, +50 de Votaje y con Power Target al 119%, además está con la BIOS oficial que sube el límite de potencia a 500W (solo la uso para benchmark ya que para jugar y tal uso la BIOS normal) y una opción del EVGA Precision que se llama Boost Lock, y que pone el core permanentemente a su máxima potencia (hasta que lo desactivas), incluso aunque estés en el escritorio (está pensado solo para benchmarks).
Según 3dMark, estoy a menos de mil puntos del mejor resultado del mundo con mi misma gráfica y procesador... no está mal...
Pues aun estas por debajo de la kaf 2 que tuve con bios de 390w . Si te fijas en tus clocks medios están por encima de los mios 2080mhz tu core medio por los 1988mhz del mio debido a la restricción de power. No obstante, es curioso pero saco mas puntos en score de gráficos... prueba a subirle mas la memos.Tu resultado aun me parece algo bajo para esa bicha, seguro puedes sacarle mas jugo
https://www.3dmark.com/3dm/54101243
RaulKO escribió:KoGollin escribió:
Menudo bicho!!!
Pasa cuando puedas un 3dMArk y a ver por cuanto se mea a mi humilde kfa modificada
Tal y como tenía pendiente, aquí te pongo un TimeSpy (me he bajado la versión demo desde Steam):
https://www.3dmark.com/3dm/56327406?
Decir que sale que los drivers no están aprobados seguramente porque llevo un hotfix de Nvidia (de la última versión) que descargué desde los foros de EVGA.
El test está con +800 de memoria, +200 de core, +50 de Votaje y con Power Target al 119%, además está con la BIOS oficial que sube el límite de potencia a 500W (solo la uso para benchmark ya que para jugar y tal uso la BIOS normal) y una opción del EVGA Precision que se llama Boost Lock, y que pone el core permanentemente a su máxima potencia (hasta que lo desactivas), incluso aunque estés en el escritorio (está pensado solo para benchmarks).
Según 3dMark, estoy a menos de mil puntos del mejor resultado del mundo con mi misma gráfica y procesador... no está mal...
RaulKO escribió:ARC0S4G4Z escribió:RaulKO escribió:
Tal y como tenía pendiente, aquí te pongo un TimeSpy (me he bajado la versión demo desde Steam):
https://www.3dmark.com/3dm/56327406?
Decir que sale que los drivers no están aprobados seguramente porque llevo un hotfix de Nvidia (de la última versión) que descargué desde los foros de EVGA.
El test está con +800 de memoria, +200 de core, +50 de Votaje y con Power Target al 119%, además está con la BIOS oficial que sube el límite de potencia a 500W (solo la uso para benchmark ya que para jugar y tal uso la BIOS normal) y una opción del EVGA Precision que se llama Boost Lock, y que pone el core permanentemente a su máxima potencia (hasta que lo desactivas), incluso aunque estés en el escritorio (está pensado solo para benchmarks).
Según 3dMark, estoy a menos de mil puntos del mejor resultado del mundo con mi misma gráfica y procesador... no está mal...
Pues aun estas por debajo de la kaf 2 que tuve con bios de 390w . Si te fijas en tus clocks medios están por encima de los mios 2080mhz tu core medio por los 1988mhz del mio debido a la restricción de power. No obstante, es curioso pero saco mas puntos en score de gráficos... prueba a subirle mas la memos.Tu resultado aun me parece algo bajo para esa bicha, seguro puedes sacarle mas jugo
https://www.3dmark.com/3dm/54101243
Es cierto que tu test me supera en puntuación gráfica. Dado que parece que en mi run he obtenido mayores velocidades de core, la diferencia podría venir de las memorias, probaré a subirlas algo mas aunque creo que aun tengo un poco de margen para subir el core...
De todas formas no es tan extraño que una tarjeta con menor TDP obtenga una mejor puntuación si el silicio acompaña. Al final al aumentar el TDP aumenta también la generación de calor, lo que en última instancia puede limitar la capacidad de OC a igualdad de disipación...
También, por lo que veo, tú manejas la versión de pago de 3dMark, lo que quiere decir que no estás obligado a pasar por la demo de TimeSpy siempre antes de ejecutar el test, lo que permite que inicies el test con la tarjeta mas fresquita que yo, habiéndome pasado varios minutos con la demo...
Si vamos a comparar, comparemos bien...
Volveré a pasar un test probando a subir algo más el core y memorias...
adriano_99 escribió:PCC debería de hacer algo con sus vendedores externos, esto es una verguenza:
dramake escribió:adriano_99 escribió:PCC debería de hacer algo con sus vendedores externos, esto es una verguenza:
Cuando deberia valer la del medio? La Gigabyte GeForce RTX 3070 GAMING OC 8GB GDDR6?
Lo digo porque esa la vende directamente PCComponentes, y justo la he comprado hace una hora o así. Al ser vendida por PCComponentes pensaba que es precio justo, pero si me la han colado la cancelo..
________
Si no, a ver que tal sale la gráfica. Iba a ir a por una 3080, pero entre los problemas de stock y las futuras posible 3080Ti o Super o yo que se cuantas 3080 quieren sacar, al final me he decidido tirar por una un poco mas "barata". También que mi fuente, siendo nueva y buena, es solo de 650W. Pequé de novato ahí y ya es tarle para devolverla y demasiado pronto para cambiarla.
La 3070 me saca del paso, espero que me dure un par de años bien y que por entonces ya no haya el drama de stock de gráficas que hay a dia de hoy. Y por esa época si tengo que cambiar la fuente ya no me dolerá tanto.
ARC0S4G4Z escribió:RaulKO escribió:ARC0S4G4Z escribió:
Pues aun estas por debajo de la kaf 2 que tuve con bios de 390w . Si te fijas en tus clocks medios están por encima de los mios 2080mhz tu core medio por los 1988mhz del mio debido a la restricción de power. No obstante, es curioso pero saco mas puntos en score de gráficos... prueba a subirle mas la memos.Tu resultado aun me parece algo bajo para esa bicha, seguro puedes sacarle mas jugo
https://www.3dmark.com/3dm/54101243
Es cierto que tu test me supera en puntuación gráfica. Dado que parece que en mi run he obtenido mayores velocidades de core, la diferencia podría venir de las memorias, probaré a subirlas algo mas aunque creo que aun tengo un poco de margen para subir el core...
De todas formas no es tan extraño que una tarjeta con menor TDP obtenga una mejor puntuación si el silicio acompaña. Al final al aumentar el TDP aumenta también la generación de calor, lo que en última instancia puede limitar la capacidad de OC a igualdad de disipación...
También, por lo que veo, tú manejas la versión de pago de 3dMark, lo que quiere decir que no estás obligado a pasar por la demo de TimeSpy siempre antes de ejecutar el test, lo que permite que inicies el test con la tarjeta mas fresquita que yo, habiéndome pasado varios minutos con la demo...
Si vamos a comparar, comparemos bien...
Volveré a pasar un test probando a subir algo más el core y memorias...
La demo la puedes pasar con downcloks con solo asignarlo en el Msi AB puedes ponerla con el power limit al minimo memos en negativo y core tambien en negativo de tal modo que estando en agua no se calentara nada. Yo no lo veo handicap ya que el time spy dura super poco y vas en agua con una 3090 con mas headroom que no restringe tanto el core clock medio con 500W ... yo tenia throttling constante por power limit con la bios de 390w .Y recuerda que mi 3090 iba con aio sujeta con dos bridas
Mis temps medias sin demo eran de 30 grados con demo hubieran sido igual haciendo lo que te he explicado del AB mientras bencheas puedes cambiar los perfiles de oc que tengas guardados sin salir al escritorio y asignarle el que quieras.
El compañero Kogollin tiene el mismo modelo de 3090 que tenia yo y el te puede decir lo limitadita que esta aun con 390W. Los resultados que le hice sacar fueron un milagro prodigioso créeme que es la 3090 custom mas capada del mercado... eso si también era la mas baratera por eso la pille. 1450 pague por ella en el black friday. Una bicha de 2100 euros tiene que rendir mas si o si. Aun no has tocado techo de eso estoy seguro.
KoGollin escribió:Viendo el tema, hasta empiezo a pensar que haber pillado en diciembre la 3090 por 1.500e fue hasta chollo
Como esta el mercado, flipante.
@RaulKO
Quiero dejar fijo a mi 3090 con auto undervolt del msi +85mhz core +200mhz las memoria, (Las memorias las dejo de serie). Es una kfa2 de dos conectores.
Se que el undervolt más que acortar la vida de la gráfica, la alarga incluso. Lo que no sé es en cuanto afecta subir de 350w a 390w. Me han comentado que la PCB puede aguantar hasta 500w pero no se como afecta en general a la tarjeta. Las temperaturas siempre tienen como máximo 70°.
Que opinas?
KoGollin escribió:@RaulKO
Lo que me preocupa mas que el undervolt es el tema de los 40w extras de tdp. No se como afecta a la vida útil.
Referente a las fuente eléctrica, tenía una Corsair 750rmi pero por si las moscas, le compre una nzxt 850c, que es una Seasonic 850 +.
Vamos estable como una roca en tensión y watios.
adriano_99 escribió:Esta tarde he logrado pillar una 3070 giganyte eagle para un amigo que no tiene tiempo para estar pendiente de los stocks, que raro que hayan puedo stock a estas horas.
Buena refrigeración y el no hace oc ni nada.
dramake escribió:adriano_99 escribió:PCC debería de hacer algo con sus vendedores externos, esto es una verguenza:
Cuando deberia valer la del medio? La Gigabyte GeForce RTX 3070 GAMING OC 8GB GDDR6?
Lo digo porque esa la vende directamente PCComponentes, y justo la he comprado hace una hora o así. Al ser vendida por PCComponentes pensaba que es precio justo, pero si me la han colado la cancelo..
________
Si no, a ver que tal sale la gráfica. Iba a ir a por una 3080, pero entre los problemas de stock y las futuras posible 3080Ti o Super o yo que se cuantas 3080 quieren sacar, al final me he decidido tirar por una un poco mas "barata". También que mi fuente, siendo nueva y buena, es solo de 650W. Pequé de novato ahí y ya es tarde para devolverla y demasiado pronto para cambiarla.
La 3070 me saca del paso, espero que me dure un par de años bien y que por entonces ya no haya el drama de stock de gráficas que hay a dia de hoy. Y por esa época si tengo que cambiar la fuente ya no me dolerá tanto.
leonigsxr1000 escribió:@adriano_99
Yo llevo usando desde el 2016 oled en el pc (65E6 - 65G7 - 65E8 y 65E9) y 0 quemados aunque solo las aguanto 1 año también hay que decirlo pero ese año le doymuuucha caña
javato escribió:leonigsxr1000 escribió:@adriano_99
Yo llevo usando desde el 2016 oled en el pc (65E6 - 65G7 - 65E8 y 65E9) y 0 quemados aunque solo las aguanto 1 año también hay que decirlo pero ese año le doymuuucha caña
Y eso?, tiras de garantía para renovar?.
RaulKO escribió:KoGollin escribió:@RaulKO
Lo que me preocupa mas que el undervolt es el tema de los 40w extras de tdp. No se como afecta a la vida útil.
Referente a las fuente eléctrica, tenía una Corsair 750rmi pero por si las moscas, le compre una nzxt 850c, que es una Seasonic 850 +.
Vamos estable como una roca en tensión y watios.
Buena fuente esa que tienes...
Entiendo pero sigo sin poder arrojarte luz en ese tema... creo que hay gente en el foro con mucho mas conocimiento que seguro te podrán orientar, pero vamos, principalmente eso tiene que ver con el hecho de si los componentes están preparados para 390W y han sido capados por firmware con un interés comercial, que yo es lo que creo, o bien la limitación es realmente de los componentes (y el firmware solo se asegura de que no se excede esa limitación).
Por ejemplo en EVGA la FTW3 viene capada en 450W pero hay una BIOS oficial (sacada por EVGA) que aumenta dicho margen hasta los 500W. Eso quiere decir que en principio los componentes son capaces de aguantar esa capacidad sin perder la garantía, por tanto, sin tener impacto en su vida útil o siendo este asumible o poco importante.
En definitiva creo que es un riesgo menor pero que, en cualquier caso, cada uno debe valorar...
Dfx escribió:@ram Lo que comentas de las EVGA afecta a las FTW3 y por lo que se dice en sus foros es una limitación por hardware que no tiene la XC3 y que no podrá saltarse. De todas maneras, a no ser que seas overclocker extremo no creo que tenga importancia.
ram escribió:RaulKO escribió:KoGollin escribió:@RaulKO
Lo que me preocupa mas que el undervolt es el tema de los 40w extras de tdp. No se como afecta a la vida útil.
Referente a las fuente eléctrica, tenía una Corsair 750rmi pero por si las moscas, le compre una nzxt 850c, que es una Seasonic 850 +.
Vamos estable como una roca en tensión y watios.
Buena fuente esa que tienes...
Entiendo pero sigo sin poder arrojarte luz en ese tema... creo que hay gente en el foro con mucho mas conocimiento que seguro te podrán orientar, pero vamos, principalmente eso tiene que ver con el hecho de si los componentes están preparados para 390W y han sido capados por firmware con un interés comercial, que yo es lo que creo, o bien la limitación es realmente de los componentes (y el firmware solo se asegura de que no se excede esa limitación).
Por ejemplo en EVGA la FTW3 viene capada en 450W pero hay una BIOS oficial (sacada por EVGA) que aumenta dicho margen hasta los 500W. Eso quiere decir que en principio los componentes son capaces de aguantar esa capacidad sin perder la garantía, por tanto, sin tener impacto en su vida útil o siendo este asumible o poco importante.
En definitiva creo que es un riesgo menor pero que, en cualquier caso, cada uno debe valorar...
La bios xoc beta de evga de 500w funciona en todas menos en evga , la ftw3 parecen tener una limitación en la entrega de energía y están limitadas a 450w , evga está investigando el tema, lo comento porque yo tengo una y da igual la bios que pongas que no pasa de 450w, la gente está metiendo la de la xc3 de 2x8 pines que se salta esa limitación.
Saludos.
RaulKO escribió:ram escribió:RaulKO escribió:
Buena fuente esa que tienes...
Entiendo pero sigo sin poder arrojarte luz en ese tema... creo que hay gente en el foro con mucho mas conocimiento que seguro te podrán orientar, pero vamos, principalmente eso tiene que ver con el hecho de si los componentes están preparados para 390W y han sido capados por firmware con un interés comercial, que yo es lo que creo, o bien la limitación es realmente de los componentes (y el firmware solo se asegura de que no se excede esa limitación).
Por ejemplo en EVGA la FTW3 viene capada en 450W pero hay una BIOS oficial (sacada por EVGA) que aumenta dicho margen hasta los 500W. Eso quiere decir que en principio los componentes son capaces de aguantar esa capacidad sin perder la garantía, por tanto, sin tener impacto en su vida útil o siendo este asumible o poco importante.
En definitiva creo que es un riesgo menor pero que, en cualquier caso, cada uno debe valorar...
La bios xoc beta de evga de 500w funciona en todas menos en evga , la ftw3 parecen tener una limitación en la entrega de energía y están limitadas a 450w , evga está investigando el tema, lo comento porque yo tengo una y da igual la bios que pongas que no pasa de 450w, la gente está metiendo la de la xc3 de 2x8 pines que se salta esa limitación.
Saludos.
Sí, voy siguiendo el hilo en el foro oficial de EVGA donde se está siguiendo el tema. Pero vamos, en mi caso la XOC oficial sí que hace que aumente el consumo de la tarjeta y la he estado usando para benchmarks con bastante buen resultado, pero cierto es que yo no soy overclocker extremo y de normal uso la BIOS principal por defecto.
De todas formas manda webs que las tarjetas "premiun" con 3 pines tengan una limitación que las hermanas de 2 pines no tienen... por ahí he visto que hay una forma de resolver la limitación pero implica modificar el panel de la tarjeta y arriesgarte a perder la garantía... cosa que yo no voy a intentar hacer ni loco...
ARC0S4G4Z escribió:creo recordar que es por la derivación del resistor de 5 miliohmios del pcie si se puentea haciendo shunt mod se resuelve el tema, se puede hacer con silicona termofusible es fácil de poner y quitar y no deja rastro
Ivy lake escribió:Los conectores de 8 pines pueden suministrar, como máximo, 180 w de potencia, no entiendo que hace la gente poniéndole BIOS o subiéndole el power limit por encima de 360w a sus gráficas cuando no están preparadas para ello. Es más, yo a la mía le hice undervolt para que no estuviese tan al límite en cuanto al consumo.
Luego que no lloren cuando se les quemen.
KoGollin escribió:Ivy lake escribió:Los conectores de 8 pines pueden suministrar, como máximo, 180 w de potencia, no entiendo que hace la gente poniéndole BIOS o subiéndole el power limit por encima de 360w a sus gráficas cuando no están preparadas para ello. Es más, yo a la mía le hice undervolt para que no estuviese tan al límite en cuanto al consumo.
Luego que no lloren cuando se les quemen.
No tienes ni idea, simpático.
No metes ni siquiera lo que puede chupar la gráfica por el puerto PCI.
Como mucho puedes derretir los conectores pero para eso se necesita mas de los 360w de tu equacion.
leonigsxr1000 escribió:Mas bien tiro de billetera jaja. vendo la del año pasado y compro la nueva
El-Gabo escribió:http://extremetechcr.com/tienda/componentes/4600-gigabyte-g32qc-2k-165-hz-1-ms-hdr.html
Hola cabrones, vengo con impresiones, dudas y comentarios respecto a ese monitor. Lo prometido es deuda.
Lo primero es lo primero, se supone que el monitor es 2560x1440p, cómo es posible que tenga soporte para el formato 21:9???
La diferencia de 16:9 a 21:9 es palpable. En el caso del trials Rising me dejó poner una resolución altísima y ojo, no use el DSR de nvidia.
En RDR 2 lo miro muy amplio el ancho, será que aplicó de igual forma el 21:9???, no recuerdo haber visto los juegos así en mi pantalla 4k....
No obstante, probé en Monster Hunter World y al poner el 21:9 tenía franjas negras, no entiendo nada.
Me estoy volviendo loco o estoy viendo cosas que no son .
El G sync de Nvidia funciona de la mil maravillas, muy recomendable activar la baja latencia en el panel en ON... De hecho Nvidia debería de activar eso por defecto, mejora mucho la comunicación/respuesta y elimina prácticamente el shutering. Al menos esa sensación he tenido en juegos como Black ops 3 y Fallout 4.
Los colores son lindos y he optado por no usar el HDR, dado que sin él aprecio una mayor calidad de la imagen y puedo disfrutar de los 165hz con display port, si activo el HDR la frecuencia baja a 120hz, probablemente sea cosa del cable.
Jugando online siento mucha suavidad en Battlefield 5 y la mejora, percepción y experiencia en general es muy superior a cualquier otra que haya vivido. Es mi 1er monitor así y no tengo mucho de donde agarrar como para comparar pero es fantástico.
Si tengo que poner alguna contra.... Sería que a 1440p, el DLSS emborrona mucho la imagen y prácticamente te obliga a usar el filtro de nitidez del panel de Nvidia, sin contar de que muchos juegos no activan esa tecnología a esa resolución.
Por suerte, a 1440p en juegos pesados como control, BF5, tengo un excelente frame rate con el Trazado de rayos maximizado y en ultra, bajo una RTX 3070 + I5 10400F... Sin DLSS, recalco.
Aprecio también algunas fugaz de luz ... Pero en términos generales es un buen monitor. Muy satisfecho.
John_Carpenter escribió:Para TV si. Pero para monitor de escritorio no recomendaría OLED ni aunque bajaran de precio, ya que debido a los quemados por el navegador, etc, sería algo que tendría que andar controlando tiempo y quiero estar libre de esas historias.
Pulet escribió:@fuji Ninguna, esperaría a las super que vendrán con 12 y 16gb supuestamente de vram. Si hay que elegir una, me quedaría con la strix.
Pulet escribió:@fuji Ninguna, esperaría a las super que vendrán con 12 y 16gb supuestamente de vram. Si hay que elegir una, me quedaría con la strix.
Lucas11 escribió:Pulet escribió:@fuji Ninguna, esperaría a las super que vendrán con 12 y 16gb supuestamente de vram. Si hay que elegir una, me quedaría con la strix.
Se sabe para cuando saldrían?
Lucas11 escribió:Pulet escribió:@fuji Ninguna, esperaría a las super que vendrán con 12 y 16gb supuestamente de vram. Si hay que elegir una, me quedaría con la strix.
Se sabe para cuando saldrían?
SEÑOR[X] escribió:Buenas!
Dos días llevo disfrutando de mi Zotac 3080 AMP HOLO, os dejo mis impresiones
Primero de todo decir que estéticamente es muy bonita auque es enorme, para poder ponerla he tenido que desconectar el speaker de la placa base (ASUS TUF GAMING B550 PLUS WIFI).
Su rendimiento creo que es bueno aunque es calentorra y un poco ruidosa aunque a mi no me molesta, con los cascos no escucho el ruido del ventilador.
Le aplicado undervolt con MSI afterburner: -90 Power Limit / +150 Core Clock / + 900 Memore Clock y es estable.
La curva de los ventiladores la he subido un poco para tener temperaturas más bajas, (unos 70ª jugando con todo al máximo al DOOM y al call of duty Cold War a 2k durante algo más de una hora a cada uno).
Por último he pasado el benchmark de la demo de 3dmark y me ha dado estos resultados, la temperatura máxima en el test ha sido de 62º.
¿Es un buen rendimiento para una 3080? sin duda creo que sus temperaturas son algo altas y que en verano alcanzará los 80º fácilmente.
Un saludo
oso^Yonki escribió:Su puede comprar ya una 3070 o 3080 o está el tema como con las ps5???
fuji escribió:En amazon van saliendo, pero vaya precios no?¿ 780 euros la 3070 vendida por ellos.
https://www.amazon.es/Gigabyte-AORUS-Ge ... B08LNY8P5L
Pulet escribió:fuji escribió:En amazon van saliendo, pero vaya precios no?¿ 780 euros la 3070 vendida por ellos.
https://www.amazon.es/Gigabyte-AORUS-Ge ... B08LNY8P5L
Y cuando las sacaron todos vendiendo como locos las rtx2000 porque esta costaba 500€...