Nomada_Firefox escribió:loco_desk escribió:loco_desk escribió:Buenos días compis.
Como veis estás temperaturas en una Gigabyte RTX 3080 ti modelo standart 3 ventiladores.
GPU Temperature - 81.4
Hot Sport - 92.6
Memory Temperature - 82
Le he cambiado la pasta térmica y los thermal pads, la memoria ya veo que va bastante fresca, pero ..... la temperatura del core la verdad que no me gusta, está a grado y medio de hacer Throttling.
¿Como lo veis? ¿La abriré de nuevo? Me tiene pinta que con unos thermal pads más finos mejoraría la temperatura del núcleo, pero claro .... Aumentaría la de la memoria supongo.
Un saludo y gracias!
Bueno, tras aplicar pasta térmica y hacer undervolt este es el resultado.
¿Como lo veis? ¿Son más razonables estás temperaturas?
https://imgbox.com/cEx6zSkQ
Un saludo y gracias.
Supongo que el minimo capturado fue con el test ya en funcionamiento. Yo el maximo lo veo razonable.
@hh1 Pues si se nota el atragante con texturas hd y a 1080p. Tanto como para arrastrar al cambiar de angulo de visión.
Mendrolo escribió:Pues hombre, yo no es que haya jugado muchos AAA (así que recuerde, cyberpunk, dl2, el último Assassin y poco más), pero jugando a 3440x1440 con la 3060ti no he notado esos tironcillos de los que hablas.
Que puede ser que tenga algún problema ocular, pero ahí queda.
With the exception of the occasional random stutters and some FPS dips during large-scale combat battles, the game will be quite playable and entertaining to watch in general. It is possible to attain adequate framerates in UHD at the maximum quality settings with an RTX 2070 or greater, however, this will necessitate the use of a Radeon 5700 XT or above.
Senegio escribió:25 meses de gráfica, no la he usado para mining, no juego a juegos especialmente exigentes (aunque sí juego en 5120x1440p de resolución, que es 1 millón de píxeles menos que 4k) y creo que está en las últimas.
Ya llevo viendo unas semanas raras donde las aplicaciones (Chrome o algún juego) se me quedaban en negro, ayer directamente se quedó sin señal la pantalla y a los pocos minutos se reinició el PC... y hoy cada rato me salen artifacts por la pantalla, cuadraditos de color blanco o rojo, dependiendo del momento.
Nunca se me ha estropeado ningún componente y va a pasarme ahora con una 3080, sin demasiado uso y con los precios de las nuevas por las nubes...
En fin, me voy a pillar un cable nuevo por Amazon y voy a confiar que sea eso, porque sino va a ser un buen palo de dinero y la 4080 realmente no me llama tanto la atención como hace 2 años sí me llamó la 3080.
Y en la web de Gigabyte pone que la garantía es de 3 años pero en PCComponentes me sale que no puedo pedirla desde hace 1 mes (24 meses en total, 2 años). Unos cachondos
https://www.gigabyte.com/Support/Warranty
Nomada_Firefox escribió:Mendrolo escribió:Pues hombre, yo no es que haya jugado muchos AAA (así que recuerde, cyberpunk, dl2, el último Assassin y poco más), pero jugando a 3440x1440 con la 3060ti no he notado esos tironcillos de los que hablas.
Que puede ser que tenga algún problema ocular, pero ahí queda.
Es una limitación jugando con texturas HD. No es jugando sin ellas. Yo he hecho la prueba con ambas graficas en el Far Cry 6 y tambien hay una review de guru3D que lo indica. https://www.guru3d.com/articles_pages/f ... ew,10.html
Optionally you can enable an HD Quality texture pack. Since we test with 8GB graphics cards predominantly these days, we install and enable it as default. Should you have a 6GB or lower graphics card and play at a resolution higher than 2560x1440, we recommend you leave it disabled.
Senegio escribió:@hh1 No me gusta AMD, malos recuerdos pre 2011 . Pero bueno, parece que ha resucitado la gráfica, llevo toda la tarde jugando y 0 problemas. Sólo he reiniciado el PC... veremos si sigue así porque sería un alivio
Senegio escribió:@hh1 No me gusta AMD, malos recuerdos pre 2011 . Pero bueno, parece que ha resucitado la gráfica, llevo toda la tarde jugando y 0 problemas. Sólo he reiniciado el PC... veremos si sigue así porque sería un alivio
KindapearHD escribió:Con 650W irá sin problemas una 3090Ti?
Elaphe escribió:KindapearHD escribió:Con 650W irá sin problemas una 3090Ti?
Ni loco. Quiero yo pillarme una 3080Ti y ando con dudas de si mantener mi Seasonic 750W gold.
Elaphe escribió:KindapearHD escribió:Con 650W irá sin problemas una 3090Ti?
Ni loco. Quiero yo pillarme una 3080Ti y ando con dudas de si mantener mi Seasonic 750W gold.
Eso es que lié algo con el undervolt y la gráfica no me baja de frecuencias. Se quedó con los 1860mhz a 0.800v y a pastar.loco_desk escribió:loco_desk escribió:Buenos días compis.
Como veis estás temperaturas en una Gigabyte RTX 3080 ti modelo standart 3 ventiladores.
GPU Temperature - 81.4
Hot Sport - 92.6
Memory Temperature - 82
Le he cambiado la pasta térmica y los thermal pads, la memoria ya veo que va bastante fresca, pero ..... la temperatura del core la verdad que no me gusta, está a grado y medio de hacer Throttling.
¿Como lo veis? ¿La abriré de nuevo? Me tiene pinta que con unos thermal pads más finos mejoraría la temperatura del núcleo, pero claro .... Aumentaría la de la memoria supongo.
Un saludo y gracias!
Bueno, tras aplicar pasta térmica y hacer undervolt este es el resultado.
¿Como lo veis? ¿Son más razonables estás temperaturas?
https://imgbox.com/cEx6zSkQ
Un saludo y gracias.
KindapearHD escribió:Elaphe escribió:KindapearHD escribió:Con 650W irá sin problemas una 3090Ti?
Ni loco. Quiero yo pillarme una 3080Ti y ando con dudas de si mantener mi Seasonic 750W gold.
Pues si se da el caso voy a probar. Total, lo máximo que puede pasar es que no le llegue suficiente energía y se apague el PC. Gracias
Mendrolo escribió:@Nomada_Firefox a futuro ni idea, pero hasta ahora con los supuestos top gráficos, 0 problemas.
Chaquetero escribió:KindapearHD escribió:Elaphe escribió:
Ni loco. Quiero yo pillarme una 3080Ti y ando con dudas de si mantener mi Seasonic 750W gold.
Pues si se da el caso voy a probar. Total, lo máximo que puede pasar es que no le llegue suficiente energía y se apague el PC. Gracias
Hombre, lo más grave que puede pasar es que te explote la PSU y se lleve por delante la gráfica y los discos duros.
Si quieres jugartela de todas formas, te aconsejo que la undervoltees y le límites el power limit desde el minuto 1.
Mikel24 escribió:ha sido bajar el Power Limit a 90 y vaya diferencia
he pasado de 77 a 53 grados (con curva de ventiladores)
alguna recomendación para el core clock y memory Clock
3080ti MSI GaminX Trio
adriano_99 escribió:Mikel24 escribió:ha sido bajar el Power Limit a 90 y vaya diferencia
he pasado de 77 a 53 grados (con curva de ventiladores)
alguna recomendación para el core clock y memory Clock
3080ti MSI GaminX Trio
A la larga te recomiendo que aprendas a hacer una curva de voltajes para hacer undervolt.
Consigues unas frecuencias mucho más estables y con ello mejor rendimiento.
Nomada_Firefox escribió:Y dice claramente para el que no lo entienda.With the exception of the occasional random stutters and some FPS dips during large-scale combat battles, the game will be quite playable and entertaining to watch in general. It is possible to attain adequate framerates in UHD at the maximum quality settings with an RTX 2070 or greater, however, this will necessitate the use of a Radeon 5700 XT or above.
Random stutters and some FPS dips during large-scale combat battles,= Tirones aleatorios y caidas de fps durante combates grandes, lo cual para quien no haya jugado nunca el juego, suceden siempre que el enemigo te detecta.
Todo lo demas es negar lo evidente, quizas preocupados por la reventa de las graficas o porque alguno es representante de alguna tienda que tiene los almacenes llenos. Pero el caso es que si todos los juegos empiezan a usar texturas HD, no opcionales, sino por defecto, cosa de la que hay más que indicios, seguramente esas graficas de 8GB mueran mucho más rapido. Al coste que tienen, supongo que no es para ignorar.
When it comes to memory, 8GB is the magic number; however, with the HD Texture pack, it's a little higher as the game aims to reach 10GB; still, this isn't a problem for the game even if you have an 8GB card.
Rvilla87 escribió:Nomada_Firefox escribió:Y dice claramente para el que no lo entienda.With the exception of the occasional random stutters and some FPS dips during large-scale combat battles, the game will be quite playable and entertaining to watch in general. It is possible to attain adequate framerates in UHD at the maximum quality settings with an RTX 2070 or greater, however, this will necessitate the use of a Radeon 5700 XT or above.
Random stutters and some FPS dips during large-scale combat battles,= Tirones aleatorios y caidas de fps durante combates grandes, lo cual para quien no haya jugado nunca el juego, suceden siempre que el enemigo te detecta.
Todo lo demas es negar lo evidente, quizas preocupados por la reventa de las graficas o porque alguno es representante de alguna tienda que tiene los almacenes llenos. Pero el caso es que si todos los juegos empiezan a usar texturas HD, no opcionales, sino por defecto, cosa de la que hay más que indicios, seguramente esas graficas de 8GB mueran mucho más rapido. Al coste que tienen, supongo que no es para ignorar.
Vaya, ahora entiendo por qué posteaste y borraste el mensaje, preferiste editar tu mensaje original y lo acabo de ver de casualidad.
Pues mira, tengo más explicaciones del artículo que comentas y que ni siquiera tú mismo lees en detalle.
1º punto, la última página habla por una parte de uso de VRAM y por otra parte (es otra sección), de las conclusiones. Son 2 puntos NO relacionados. Que tú lo relaciones porque te interesa y donde dicen que hay problemas lo asocies al uso de la VRAM es una interpretación incorrecta que has hecho, pero se refieren a problemas de rendimiento de forma general. De hecho, por poner un ejemplo, el stuttering ocurre mucho en los juegos de PC con motor Unreal Engine 4 por el tema de las shader compilation al vuelo que nada tiene que ver con la VRAM que tenga o deje de tener la gráfica (mas info). Por cierto, para aclarar, no estoy diciendo que Far cry 6 tenga UE4, tan solo indiqué un ejemplo de stuttering (hay muchos mas).
2º en el mismo apartado de conclusiones deja claro que 8GB de VRAM no es un problema para Far Cry 6, y de hecho lo tenías justo antes del párrafo que citas. No lo leíste o mas bien no lo quisiste entender?When it comes to memory, 8GB is the magic number; however, with the HD Texture pack, it's a little higher as the game aims to reach 10GB; still, this isn't a problem for the game even if you have an 8GB card.
Insisto, que 8GB de VRAM no es un problema! Te has enterado ya o lo necesitas en otro idioma?
3º Deja de inventarte argumento de batallitas, almacenes llenos y tonterías varias. Aquí estamos hablando de temas estrictamente técnicos y fácilmente debatible (si se tienen conocimientos y/o ganas de buscar en la red).
Y encima vas diciendo que no opinar lo que tú dices del trema de la VRAM es negar lo evidente, lo que hay que leer...
Aunque por otra parte ahora con las respuestas de Mendrolo estás aceptando la idea que los 8GB de VRAM de la 3060 Ti no son un problema en los juegos actuales? No puede ser, si llevas meses con la idea de que la 3060 Ti está limitada por sus 8GB de VRAM (ejemplo reciente). A ver si te aclaras y dejas de liar al personal.
Si no entiendes ni esto que te pongas a hablar de futuro y "texturas HD no opcionales" (término que lo dices mucho pero ni tu mismo entiendes bien), directStorage y otras cosas mas complejas y de la que hay mucho menos info que del tema del consumo de VRAM en juegos actuales, como mínimo me parece como para tomarte a cachondeo. No intentes correr si no sabes caminar, porque te acabas cayendo.
Wookiee escribió:Nomada_Firefox escribió:Si es cierto que pone esto.When it comes to memory, 8GB is the magic number; however, with the HD Texture pack, it's a little higher as the game aims to reach 10GB; still, this isn't a problem for the game even if you have an 8GB card.
Pero inmediatamente déspues pone esto.With the exception of the occasional random stutters and some FPS dips during large-scale combat battles, the game will be quite playable and entertaining to watch in general. It is possible to attain adequate framerates in UHD at the maximum quality settings with an RTX 2070 or greater, however, this will necessitate the use of a Radeon 5700 XT or above.
Eso es lo que sucede cuando juegas con una grafica de 8GB. Que el juego baja el detalle automaticamente y no se ve bien, ni funciona bien.
La cuestión aqui es negarlo repetidamente como si eso no sucediera o bien comunicarlo porque igual con un poco de suerte los fabricantes se darian cuenta de que lo que venden no es perfecto.
Podeis decirme que es solo un juego, quizas por ser el más conocido. Pero hay más con más con texturas HD. Yo no voy a comprarlos para probar nada, no esta en mi mano. Por lo menos me molesto en informar, otros simplemente parece que lo niegan.
Y posiblemente lo repita un millon de veces porque es simplemente cierto por mucho que se niegue.
¿Inmediatamente despues? Si, pero tras un punto y aparte. Si a estas alturas hay que explicar lo que es un punto y aparte... pues si que estamos bien...
Que ese shutter este relacionado con que se use una gpu de 8gb te lo sacas tu de la manga, como lo de la bajada del detalle, que en ningun momento de la review se comenta.
Y claro que hay más juegos de pc con texturas hd, la inmensa mayoria de los AAA modernos. Otra cosa es que se descarguen en un pack a parte, ya que las descargas por separado suelen usarse en consolas, para aprovechar las revisiones de los nuevos modelos o para ahorrar espacio en disco, en juegos indies , donde la comunidad lo termina demandando, y juegos mas antiguos, donde en su salida el hard no "podía" con ese extra y se "remasterizan" las texturas. Si solo se habla de este, quizas es porque es el unico AAA moderno que tiene problemas. Pero solo quizas eh! Lo que pase en el corto plazo con las gpu de menos de 12gb, pues no lo sabemos ni tu ni yo.
Y no, no molesta que informes de problemas reales, como que la 3060ti, la 3070 y la 3070ti petan a 4k con rt y sin fsr. Lo que molesta es que metas como información una mera opinión como:
"con graficas de 8GB a 1080p funcionaran con errores graficos"
Ya que eso no lo dice en ningun momento esa buenisima review (review de un juego, no de ninguna gpu, todo sea dicho de paso). Con estas cosas solo contribuyes a confundir a quien no quiera/pueda leersela o no tenga conocimientos de inglés.
Y no hay que decirle nada a los fabricantes, pues saben perfectamente que lo que venden no es perfecto. De hecho, ahi esta su negocio y de ahi la segmentación de sus productos. ¿Esto significa que las 3070 y 3080 no vinieran justas de ram? Pues no, en segun que escenarios, estan justitas de vram, pero del mismo modo que la 3060 viene justa de cudas.Nomada_Firefox escribió:Y posiblemente lo repita un millon de veces porque es simplemente cierto por mucho que se niegue.
De esto no me cabe ninguna duda.
Wookiee escribió:Nomada_Firefox escribió:@Wookiee Ya veo que tu unico argumento es alegar que la review esta en ingles estamos en el 2022. Pero incluso el imperfecto traductor de google hara un buen trabajo en este caso.
Esta claro que te molesta cuando inventas que los errores graficos una mera opinión, a eso se le llama tergiversar y emborronar la noticia.
Lo voy a repetir con gusto.When it comes to memory, 8GB is the magic number; however, with the HD Texture pack, it's a little higher as the game aims to reach 10GB; still, this isn't a problem for the game even if you have an 8GB card.
Traducido:Cuando se trata de memoria, 8GB es el número mágico; sin embargo, con el paquete HD Texture, es un poco más alto ya que el juego pretende llegar a los 10 GB; aún así, esto no es un problema para el juego incluso si tienes una tarjeta de 8GB.
Y a continuación explica.With the exception of the occasional random stutters and some FPS dips during large-scale combat battles, the game will be quite playable and entertaining to watch in general. It is possible to attain adequate framerates in UHD at the maximum quality settings with an RTX 2070 or greater, however, this will necessitate the use of a Radeon 5700 XT or above.
Traducido:Con la excepción de los tartamudeos aleatorios ocasionales y algunas caídas de FPS durante las batallas de combate a gran escala, el juego será bastante jugable y entretenido de ver en general. Es posible lograr velocidades de cuadro adecuadas en UHD con la configuración de máxima calidad con una RTX 2070 o superior; sin embargo, esto requerirá el uso de una Radeon 5700 XT o superior.
Y la traducción es del traductor de google donde estos casos no parece mostrar errores notables dando a entender bien lo que habia escrito en ingles.
Puede usted señor wookipe negando la realidad. ¿Y cual es la realidad? me gasta más de 600€ (tirando muy por lo bajo) en una grafica y voy a ver errores graficos porque se me queda corta la tarjeta con 8GB de memoria grafica.
No, el problema no es que la review este en inglés, el problema es tu gramatica (o tu enfermizo afán por tener razon siempre):
A continuación no, tras un punto y aparte. En un parrafo diferente, vamos. Lo que en ingles es un "new paragraph". Si quieres te paso algun enlace en inglés sobre lo que implica, pero te adelanto que, basicamente, es igual que en castellano. Y segun la RAE:
El punto y aparte es, pues, el que separa dos párrafos distintos, que suelen desarrollar, dentro de la unidad del texto, ideas o contenidos diferentes.
Es cierto que hay shutter, pero no lo relaciona con la cantidad de vram, ni mucho menos con resoluciones de 1080p, sino que, si te lees la review completa, lo hace con el analisis de frametime (tira de nuevo de traductor):
For our test run, we'll fire off a 30-second scene at 3840x2160 pixels in both DX12 and DX12+Raytracing. We opt to use the Radeon RX 6800 XT paired and matched with the GeForce RTX 3080. The first being faster in DX12, the latter in DX12+Raytracing. So that should be an interesting observation.
Once you see visual peaks at 40ms, you're in stutter territory. The game engine does have them.
Asi que señala al motor del juego, porque no se nos olvide, es la review de un juego, y habla de como se comporta ese juego.Y tras colgar varias tablas comparativas del frametime, compara dos graficas, la 6700xt (12gb) y la 3060ti (8gb), llegando a la siguiente conclusión:
It's almost vexatious to see how well both cards perform, so we'll close in even further at the highest measured frametime in ms, above DX12 frame times for 6700 XT (red) and 3060 Ti (green). You can see extremely similar frame pacing and time behavior, the green bar is positioned higher and thus slightly slower (higher frame times - lower FPS).
Y esta es la referencia al shutter a la que alude tu "parrafo salvavidas", el cual acaba diciendo que puedes conseguir fps adecuados con una 2070 (8gb) "asi como" con una 5700XT (8gb) en maxima calidad y a 4k.
Y por mi parte, siguiendo con la "tematica" de esta aburrida e infructuosa conversación, punto final.
Edit: Por cierto, me gasté menos en la 3070 (nueva 529€ puesta en casa) que tu en la 3060, y el unico "error grafico" (que no fue tal, si no shutter) que padecí fue cosa de la cpu y supe como solucionarlo. Si alguien debe estar rabiando por pagar de más, ese no soy yo.
Wookiee escribió:
Y lo mas gracioso es que despues de tirarse meses y meses diciendo que las 3070 y 3080 nacieron obsoletas por tener tan poca vram, pilla y se compra una 3060ti de 8gb de vram.
ivan95 escribió:@Wookiee me recuerda a cuando estaba cerca de salir el 5800X3D y en un tema preguntaban si era recomendable, yo dije que tiraran a por un i5 12600K que en juegos seguramente no se quedaria muy atras y en lo demas le ganaria, la respuesta de Nomada "eres un fanboy azul"
Todos sabemos quien se compro un 12600K despues y no fui yo precisamente🤣🤣🤣🤣🤣
mrmanson16v escribió:Ojo una 3060 en pccomponentes a 379€
https://www.pccomponentes.com/msi-gefor ... 12gb-gddr6
y en coolmod a 369€
https://www.coolmod.com/kfa2-geforce-rt ... a-grafica/
Valhan escribió:@edu253 Personalmente, aguantaría.
Muy buena GPU, vas a notar un salto enorme, perfecta para 1440p pero cuesta lo que costaba de salida.
Deberian bajar y mucho los precios de la serie 3000, o aún a malas seguro que la podrías encontrar mucho más barata en el foro de compra/venta.
Valhan escribió:@edu253 Personalmente, aguantaría.
Muy buena GPU, vas a notar un salto enorme, perfecta para 1440p pero cuesta lo que costaba de salida.
Deberian bajar y mucho los precios de la serie 3000, o aún a malas seguro que la podrías encontrar mucho más barata en el foro de compra/venta.
Valhan escribió:@edu253 Personalmente, aguantaría.
Muy buena GPU, vas a notar un salto enorme, perfecta para 1440p pero cuesta lo que costaba de salida.
Deberian bajar y mucho los precios de la serie 3000, o aún a malas seguro que la podrías encontrar mucho más barata en el foro de compra/venta.
Valhan escribió:@neox3 Ya están bajando.
Hace un par de semanas me estuve planteando una EVGA FTW 3090 Ti por 1200€ vendida por Amazon, de hecho llevo toda la semana viendo ofertas de GPUs, en especial de AMD, que las están tirando de precio, aún así no controlo los mercados, de ahí que dijera exactamente "deberían" y no "van a bajar".
No he venido a debatir de precios, solo a ayudar a un compañero que tenía una duda, si tienes más información al respecto, creo que deberias citarlo a el, no a corregirme a mi.
neox3 escribió:Valhan escribió:@edu253 Personalmente, aguantaría.
Muy buena GPU, vas a notar un salto enorme, perfecta para 1440p pero cuesta lo que costaba de salida.
Deberian bajar y mucho los precios de la serie 3000, o aún a malas seguro que la podrías encontrar mucho más barata en el foro de compra/venta.
No van a bajar nuevas, por que no tienen sustitutas... y cuando salgan el año que viene, ya veremos, por que todo por debajo de la gama alta apunta a un rendimiento pauperrimo que ni compensa actualizar...
Noticia de hoy, ya se comenta que va sacar nvidia la 4060, con una potencia similar a la 3070 y con precio mínimo de 3070ti...
Valhan escribió:@corso222 Depende mucho del resto de componentes, pero en principio apostaría a que sí, de hecho, tengo la EVGA 3070 XC3 Ultra montada en una Corsair SF750 80+ Platinum, pero en cuanto la cambie le tengo destinada otra caja con una Corsair SF600 80+ Platinum, y cuando monté la caja con idea del cambio ya me iba sobrada, pero de nuevo, en función de los componentes.
Usa esta web que te hecha una mano para acercarte a lo que buscas.
PSU Calculator
Si tienes alguna duda con lo que poner, avisame.
zero2006xl escribió:Valhan escribió:@corso222 Depende mucho del resto de componentes, pero en principio apostaría a que sí, de hecho, tengo la EVGA 3070 XC3 Ultra montada en una Corsair SF750 80+ Platinum, pero en cuanto la cambie le tengo destinada otra caja con una Corsair SF600 80+ Platinum, y cuando monté la caja con idea del cambio ya me iba sobrada, pero de nuevo, en función de los componentes.
Usa esta web que te hecha una mano para acercarte a lo que buscas.
PSU Calculator
Si tienes alguna duda con lo que poner, avisame.
+1 @corso222 a lo que te dice Valhan. Yo tengo la 3070 con una Seasonic de 500w y el consumo máximo del equipo en estrés (no con juegos, sino estresándolo todo a propósito) no es más de 420w.
Mi recomendación es que sea de calidad por tres motivos:
- Tendrás más protecciones por si pasa algo.
- Las fuentes más reforzadas ayudan a reducir el coil whine que pueda tener la gráfica.
- A mejor certificación, mejor eficiencia y el equipo gastará menos.
https://cultists.network/140/psu-tier-list/
Esto lo digo un poco por quien lo lea, como ya tienes la fuente no hay por qué comprar otra.
LynX escribió:Parece que han subido de precio las 3080 de pccomponentes para el Timo Friday xD. Ya no hay ninguna por menos de 900 euros. Se hace raro ver algunas 3080 al mismo precio que alguna 4080 xDD.
Bueno, habrá que esperar al año que viene a ver si baja un poco la burbuja esta de las gráficas.
Rvilla87 escribió:LynX escribió:Parece que han subido de precio las 3080 de pccomponentes para el Timo Friday xD. Ya no hay ninguna por menos de 900 euros. Se hace raro ver algunas 3080 al mismo precio que alguna 4080 xDD.
Bueno, habrá que esperar al año que viene a ver si baja un poco la burbuja esta de las gráficas.
¿Estás mezclando las que vende pccomponentes con las que venden otras tiendas? Porque no creo que pccomponentes decida el precio en el resto de tiendas, no?
PCcomponentes según veo ahora solo vende dos 3080 nuevas, una Zotac que no tiene rebaja y no ha subido el precio en el último mes (de hecho no lo hizo en meses anteriores, lo que pasó es que quitaron la oferta de mayo) y una Gigabyte que NO tiene oferta black friday (tiene una propia pero no es del black friday).
Y por cierto, la Zotac según su gráfica nunca ha estado por debajo de los 900€ y la Gigabyte lo llegó a estar en julio y principios de octubre brevemente, no es es que haya mantenido mucho tiempo ese precio sino solo durante ofertas puntuales (mejores que la actual que repito que no es de black friday).
Si analizamos un caso con oferta black friday, como esta 3060, se puede ver como desde agosto a principios de octubre su precio se ha mantenido en los 450-460€, en octubre subió a los 470-480 y hace 3 días aplicaron la oferta a 400€... oferta que por cierto la reflejan en base al PVPR de 543€, con lo cual no afecta en nada la posible subida previa al BF para "promocionar" una buena rebaja.
No me parece ni mucho menos un caso a destacar de subida de precios previa a black friday, sobre todo sabiendo que en el mercado en el que estamos los precios no paran de subir y bajar continuamente en base a la oferta y demanda.
Y a todo esto, desde que en pccomponentes ellos mismos de forma transparente muestran el historial de precios me parece un poco sin sentido que hicieran ese tipo de tácticas rastreras de forma generalizada cuando sería muy fácil demostrarlo. De hecho cuando no lo hacían se podía demostrar, pero no era tan fácil, simplemente guardando en archive.org una copia cada día (esto si sabes lo programas en menos de 5 min, es una simple llamada web), con lo cual estoy casi seguro que fueron transparentes porque no les quedaba otra para intentar evitar acusaciones como precisamente la que acabas de hacer.
Por si fuera necesario aclararlo, no trabajo ni estoy relacionado con pccomponentes, por si alguno lo piensa.