Criptomonedas a la baja, ¿y el mercado de GPUs volvera a ser el de antes?

Imagen

Y ahora que las criptomonedas estan sufriendo un reacomodo en su valor, y en que habra regulacion bancaria [eun un futuro quiza a mediano plazo]. ¿Que pasara con el mercado de tarjetas de video?, ¿volveremos a ver precios mas razonables en general [omitamos las geforce RTX] los proximos meses?

https://www.forbes.com.mx/bitcoin-pierd ... res-un-dia
https://es.cointelegraph.com/news/bitco ... ptember-10
https://www.infobae.com/america/mundo/2 ... e-24-horas


.
En mi opinion, NO.

Los fabricantes de GPU y los consumidores ya se han acostumbrado a precios por las nubes, ahora lo ven 'medio normal'. Y aquellos que decian que la culpa era SOLO de la mineria, veran que se equivocaban. El precio que se establece, depende de la oferta y demanda, si. Pero si acabada la Hiper-Demanda de la Mineria, los consumidores siguen comprando al precio 'Minero' pues los fabricantes no van a bajarse del burro.....

Esta es (muy a mi pesar) mi opinion, y lo que estoy viendo en el mercado desde hace un par de meses a dia de hoy.
Además de la minería, es que el precio de la memoria ha subido muchísimo desde hace tiempo, y las gráficas cada vez tienen más VRAM, con lo que sólo por eso es normal que tengan subidas, si a eso le sumas la ley de la oferta y la demanda, si los fabricantes ven que pueden meter más márgenes de beneficio y la gente sigue comprando, pues hacen lo que haría cualquier empresa, tener los máximos beneficios posibles. ;)

Saludos.
La ram sigue cara, y las gráficas tienen RAM especial además. Los precios no van a bajar solo porque unos mineros no compren gráficas.

Y en el caso de novedades siempre las novedades se han pagado bien caras.
Bueno hay mucha gente agazapada esperando a que bajen los precios para renovar grafica y ya no van a esperar mucho mas, así que va a seguir habiendo venta aunque no bajen mucho, mi opinión es que se van estabilizar con una pequeña bajada pero ahi se quedará, no creo que veamos precios de hace un par de años a corto/medio plazo. Como habeis dicho se ha "normalizado" los precios por las nubes.
No, los fabricantes ya se han acostumbrado a vender las gráficas a un 25-50% más de su precio orginal y razonable, y no se van a bajar de la nube hasta pasados unos años.
Además de que se aprovechan del consumidor como quieren, las criptomonedas están en el momento bajista del ciclo parábola/depresión que siguen desde que se crearon. Dentro de uno o dos años volverán a repuntar con más fuerza incluso, podéis citarme.
Según los módulos g.skill que me estuve mirando.


Los precios se cuadrupicaron... incluso en algunos sitios se les fue la olla...

Ahora según donde mires en vez de x4 de su valor, puedes encontrar las por x2 de su valor base rn alternate.

Las otras páginas están al x3 de su valor.

(G.skill black chip Samsung, 4x8gb 3200mhz cl17 a 178€ llegue a verlas cuando los montaban con el 6700k
VIendo que la gente despues de esta crisis seguia comprando graficas a precios desorbitados... lo dudo.

A ver si revienta esta basura de las criptomonedas, a lo mismo que cuando entrabas en determinadas paginas habia un malware que ponia a minar a tu equipo para otros sin que te enteraras, podrian sacar un malware que reventase todo aquel ordenador que detecte que esta minando, por que menudo cancer para el mundo del hardware.

Lo peor que puede hacer la gente es comprar graficas de minado de segunda mano, que se las coman y dejen de joder...
¿Podria haber falta de stock de las RTX ahora que han hecho prueba de minado etherum y esta sobre pasando los resultados de Radeon VEGA? Si una de las mayores quejas de las RTX es el precio alto, ahora que se ve que puede ser un buen candidato de minado quiza veamos otro pequeño aumento de precio, y con esto volver a empezar con los costos altos en general de las GPUs.

Imagen

Prueba etherum en los modelos Founder Edition de la RTX 2080 y 2080Ti, tanto con los valores de fabrica como con valores optimizados logrados variando el Power Limit. Se ha utilizado el software Claymore Dual Ethereum GPU Miner V11.9, el cual sobra decir que aun no esta optimizado para la arquitectura de las RTX.

Imagen

https://www.hardwareluxx.de/index.php/n ... -test.html
(mensaje borrado)
TRASTARO escribió:
¿Podria haber falta de stock de las RTX ahora que han hecho prueba de minado etherum y esta sobre pasando los resultados de Radeon VEGA? Si una de las mayores quejas de las RTX es el precio alto, ahora que se ve que puede ser un buen candidato de minado quiza veamos otro pequeño aumento de precio, y con esto volver a empezar con los costos altos en general de las GPUs.

Imagen

Prueba etherum en los modelos Founder Edition de la RTX 2080 y 2080Ti, tanto con los valores de fabrica como con valores optimizados logrados variando el Power Limit. Se ha utilizado el software Claymore Dual Ethereum GPU Miner V11.9, el cual sobra decir que aun no esta optimizado para la arquitectura de las RTX.

Imagen

https://www.hardwareluxx.de/index.php/n ... -test.html


Con esos valores que indicas en la imagen, yo pienso que NO va a pasar nada con la mineria+RTX.

Nadie en su sano juicio se va a dejar un 250% de pecio (tirando por lo bajo), por una tarjeta que rinda un 200% (redondeando al alza). Ni tampoco un 200% de precio contra un 135% de rendimiento (comparando resultados contra una GTX1070). Y tomo la 1070, por ser una de las referentes durante la epoca minera por su alta tasa de H/W (Hash/watios)

Esto es tomando como referencia los precios de las Founders, que este año precisamente no tienen nada que envidiar (Badumm Tsss) a las Custom, porque ni en precio ni en características se quedan atrás, una comparativa entre las:
(precios tomados de las RTX en la tienda oficial de Nvidia, y de la 1070 en PCComponentes)
2080Ti vs 1070-> 1259€ vs 450€ ->279% en precio la 2080Ti respecto a la GTX1070 custom mas normalita
2080 vs 1070 -> 849€ vs 450€ -> 189% en precio, la 2080 respecto a la GTX 1070 mas normal.

Y sobre la imagen compartida, el rendimiento es:
2080Ti vs 1070 -> 180% de rendimiento de la "2080Ti (optimiert)" respecto a la GTX 1070
2080 vs 1070 -> 134% de rendimiento de la "2080 (optimiert)" respecto de la GTX 1070.

Repito, son valores aproximados, no intento sentar cátedra ni nada por el estilo. Pero con estos valores, y teniendo en cuenta ademas que el consumo de esta generación es SUPERIOR a la 10x0 , queda a todas luces descartado (al menos por ahora) el uso de esta generación para minería.
Seria un absoluto despropósito, primeramente por precio, se tarda mas en rentabilizar la inversión, y estando como esta la minería ahora mismo, se tarda mucho mas tiempo en rentabilizar cada euro, así que se autodescarta porque en relacion "Precio/rendimiento" salen mucho peor paradas; en segundo lugar, porque el consumo ha aumentado, asi que o reajustan muchos valores para reducir el consumo (y calor generado), o el coste de minado va a aumentar (reduciendo el margen de ganancia de minado). Y por ultimo, no olvidemos que los modelos Flanders (me hizo gracia esto con las Pascal xD) han salido calentorros de narices, así que, encima, se tendría que invertir mas en refrigeración para mantenerlas frescas.
Aún hay gente que cree que el precio de RTX o de la RAM es por la minería?
No creo que exista ninguna persona que crea o piense que es por la mineria el alto costo.

Pero lo que si se expone es si los mineros pudieran tener interes en estas tarjetas de video, y si es asi, las tiendas esten tentadas a aumentar el precio
Yo creo que normalmente los que inflan los precios y especulan son los mayoristas y distribuidores, y también los fabricantes claro, a las tiendas de informática les interesa vender más, y si están muy caras venden menos, y la gente no compra el resto de componentes de un equipo, con lo que al final pierden ventas.

Saludos.
Alejandro_Tomas escribió:Aún hay gente que cree que el precio de RTX o de la RAM es por la minería?


Cuantísima razón. Clavado.
Kaiser Sport escribió:
Alejandro_Tomas escribió:Aún hay gente que cree que el precio de RTX o de la RAM es por la minería?


Cuantísima razón. Clavado.


Es tan simple como la total falta de competencia.

Cuando tu rival vende a 500 y 550€ las tarjetas que rivalizan con las que tú vendes por 400 , 430 y 500, y aún encima tienes algo mejor por 650, si aún encima sacas un producto superior, ¿porqué vas a venderlo más barato si resulta que te vas a forzar no ya a vender a X precio las novedades, si no a bajar las demás gráficas?

AMD no es que no saque nada y por eso no compita, es que lleva sin competir a pesar de que ya no tiene la disculpa de la minería.

Aún ayer miré precios en PCcomponentes y la más barata Vega 56 se iba a 500€ redondos, la más barata Vega64 se va a 550€ exactos. Habiendo GTX 1070 por 400, la versión ti por unos 430 ya disponible, y la 1080 por 500€ (de hecho estuvo por debajo pero se agotaron unidades, creo que por 480€), ¿quién compraría tarjetas que son más caras, más tragonas, y con peor potencial de OC? Y para más cachondeo, sacadas más tarde y con, en general, peor fama como fabricante (nvidia sí se podría permitir eso en un cierto grado al tener mejor fama, que eso siempre tira cuando los precios no son MUY distintos).

Ese panorama de CERO competencia es el que hace que nvidia, cuando saca un top, ni se moleste en bajar precios, ¿para qué? Si hasta pareciera que AMD quiere subirlos aún más que nvidia (repito, es ridículo que una gráfica como la Vega64 siga a 550€ mínimos cuando su rival directo está claramente más barata).

AMD como no espabile ni le va a quedar el mercado de gama media, que tampoco es que lo esté haciendo de maravilla. Nvidia sólo está aprovechando una oportunidad de oro que le da AMD, no la de hacerse con más cuota de mercado, no, si no de mantener precios absurdos por la inacción del rival.
Bueno Nvidia ya empezo a robar a la gente con la serie 900 que de salida la 970 valia 300-320 y cuando AMD no hacia frente, y las vendian como churros un año despues estaba por los 360. Aun asi yo compre una R9 290 en vez de la 970 porque eran 90€ menos... y buena eleccion hice! Rinde bastante bien hoy dia.
DAVIDSM4K escribió:Bueno Nvidia ya empezo a robar a la gente con la serie 900 que de salida la 970 valia 300-320 y cuando AMD no hacia frente, y las vendian como churros un año despues estaba por los 360. Aun asi yo compre una R9 290 en vez de la 970 porque eran 90€ menos... y buena eleccion hice! Rinde bastante bien hoy dia.



Recuerdo que precisamente las 290 estuvieron muy caras en ciertos momentos por una primera oleada de minería (primera porque era predecesora de la última, ya habían habido otras), suerte tuviste de pillarla a buen precio en su momento.

El tema del precio, por cierto, es curioso, dado que en esa época lo que coincidió fue un cambio malísimo (en realidad el que arrastramos aún ahora) de moneda, lo que hizo que las gráficas "subieran" de precio en.... Europa (en realidad no, simplemente se estancaron en precios).

Aún así, yo compré de salida la 970, y salió por 340€, y te aseguro que miro bien los precios, siempre intento ahorrar lo posible yendo a modelos que no sean demasiado básicos. Una 770 en su momento fueron 300€, aunque básicamente es fácil entender el porqué (renombrado y ligera mejora de las 680, mitad de VRAM, etc).


Lo curioso es que menciones a la 290 dado que realmente quien no se subió poco a la parra fue AMD con esta gráfica en lanzamiento, ya que pedía 399 machacantes ($) por ella. El precio por una 970 era 329$ en lanzamiento (el mismo que el de la 770, pero... había el tema del cambio). Evidentemente para un producto ya rodado en el mercado y con unos cuantos problemas y mala prensa en lanzamiento (las 290 con su sistema de refrigeración de referencia quedaron francamente mal), qué menos que fueran más baratas por aquel entonces. Que sí, que si eran personalizadas y tal que se eliminaban muchos de los peros que se les ponían.

Mira si el tema es absurdo que nvidia lanzó algo equivalente pero con sus mejoras (otros dirán que tiene sus propios minus, de todas formas, está claro que la 970 tenía una pinta de producto algo más redonda) un año después y rebajando 70€ el tag de precio.

¿Qué hizo AMD casi un año después?

Renombrar las mismas tarjetas, llamarlas 390 y venderlas a 329$ (mismo tag que las 970). Evidentemente "algo" ofrecía, más VRAM, y algo más de rendimiento para recortar la pequeña ventaja de la nvidia. Pero... hablando de meterla doblada.... DOS AÑOS desde el lanzamiento original y AMD ofreció durante el siguiente año en ese mismo segmento el mismo producto con un pequeño descuento.

Nada de ofrecer un +50% de rendimiento, o un cochino +25% a precios similares o algo más recortados, no. El mismo rendimiento potencial (sólo que con OC de fábrica), alguna mejora en VRAM, y un precio muy similar al de dos años antes.

Hablando de robar..... aquí uno no se ha subido a la parra de los precios solo. Han sido ambos, que han preferido mantener una situación de inmovilidad del mercado con muy ligeros cambios y ningún precio agresivo.

Y si no, fijate en el tema, la Rx480 de 8 GB salió al mercado por 239$ (ahí sí hubo algo de evolución del mercado, un tag de precio ya claramente más bajo para ofrecer un rendimiento casi de 980), pero.... ¿qué precio tienen ahora las Rx 580? Y son sólo un produco apenas remozado con OC de fábrica, dos años después.

Que sí, nvidia hace lo mismo (de hecho la 1060 6GB es una muy clara respuesta a esto), pero sólo faltaría que quien tiene la mayoría del mercado fuera la que se pusiera agresiva con los precios, eso sólo lo haría para conseguir quitar más cuota a AMD o directamente sacarla del mercado (monopolio), y va a ser que no, que la situación actual le conviene más a nvidia que moverse en su contra.

A quien sí le debería convenir recuperar cuota es a AMD, pero sigue sin hacer nada en el mercado de gpus, sigue arrastrando esas magníficas Vega a precios muy altos y sin ofrecer nada nuevo.

Ha pasado ya la 1080 ti sin respuesta, han pasado las 2080/ti también sin respuesta..... y pasa, pasa el tiempo, y AMD sigue columpiándose, no menos de 550€ por una Vega64, por material ya un tanto obsoleto. Y las 1080, producto más viejuno pero mejor imagen, aún encima ya bajando de 500€ a pesar de todo el inmovilismo de nvidia.

Sinceramente, no le entiendo. Está claro que Raja hizo muchísimo daño a la división de gráficos, es la única explicación:

https://www.youtube.com/watch?v=LhK2gf_VCTg

PD: Así "trabajo" yo también, no te jode. Vaya parásito. Lo gracioso es que se ha ido a intel a la división de gráficos, será simpático ver sus estropicios en donde sea que le toque hacer de "papel director".
@wwwendigo Que conste que estoy de acuerdo con la inmensa mayoría de lo que dices. Con el 90%.
Pero hay cosas que claman al cielo.
Sí, las 290 y 290X no fueron baratas precisamente en su lanzamiento. Y eran calenturientas. Y tragonas. Siempre pareció una mejor elección elegir la 970, de hecho le compré una 970 de esas a mi mujer (y está tan contenta).

Eso no quita que Nvidia se coronara de lo lindo con el famoso número falso de ROPS y los 3.5GB + 0.5GB de memoria VRAM a distintas velocidades (y claro, distintos anchos de banda). Una guarrería de tres pares de cojones.

Repito: La GTX 970 va genial. Y ni soy hater ni nada parecido, ya he dicho, he comprado una para mi mujer hace varios años y super contenta que está. Pero es una guarrería, y las guarrerías han caido a ambos lados: AMD y Nvidia.

Acerca de que han pasado las 1080Ti y las 2080Ti sin respuesta por parte de AMD, bueno, podemos decir que es cierto que AMD aun no ha respondido a las 2080Ti (tampoco es que haga un año del lanzamiento, hace menos de un mes), pero las 1080Ti han tenido ahí a las Vega 64, que es lo mejor que ha tenido AMD. Sí, queda atrás de las 1080Ti (bastante, la verdad) pero al menos está por encima de la 1080.

Que oye, para ser una empresa decenas de veces más pequeña que sus rivales, Intel y Nvidia, ya está bien.Compite como puede, en dos campos distintos, y con mucho menos presupuesto. Si tuvieramos que depender de una rivalidad Intel-Nvidia estabamos bien jodidos todos.
wwwendigo escribió:Sinceramente, no le entiendo. Está claro que Raja hizo muchísimo daño a la división de gráficos, es la única explicación:

https://www.youtube.com/watch?v=LhK2gf_VCTg

PD: Así "trabajo" yo también, no te jode. Vaya parásito. Lo gracioso es que se ha ido a intel a la división de gráficos, será simpático ver sus estropicios en donde sea que le toque hacer de "papel director".

A ver, yo estoy de acuerdo en la gran mayoría de las cosas que dices, pero... Sabes que le pasó a la división de gráficos? Lisa Su le quitó 60% de su presupuesto y 2/3 de los ingenieros, Raja Koduri se ha llevado mucho hate, pero cualquier plan que tengas si te hacen este sangrado se frustra a no ser que seas un mago:
https://www.youtube.com/watch?v=O7eVIhQwaCE

Ya lo comentó @Kaiser Sport, AMD trabaja a dos bandas contra 2 gigantes, parece que va por turnos a ver contra quien compite [tomaaa]
@Kaiser Sport

Vamos a ver, más o menos de acuerdo también, pero con alguna puntualización:

1.- AMD ha llegado a ser decenas de veces más pequeña por su propia culpa, cuando se sobredimensionó y compró además ATI y llegaron las vacas flacas, tuvo que hacer un sangrado máximo, de ahí que tenga un tamaño "tan pequeño" cuando tampoco es que sea una empresa pequeña, precisamente. Pero sí, simplemente la venta de la parte de las fábricas bajo el sello de GF a ATIC hizo mucho daño, después varios fracasos comerciales concatenados (y para su desgracia, el tino de sus rivales con sus productos, en especial intel). El hecho de que esté dejando de lado totalmente a GF como proveedor y ésta se retire además de la implantación de nodos de última hornada demuestra hasta qué punto salió mal la maniobra.

A veces nos olvidamos que la que sí empezó siendo pequeña fue nvidia, cuando ATI y AMD eran ambas grandes y con muchos más recursos (e intel, por supuesto hay comienzos modestos en muchas de estas empresas, pero hay que irse a los 70 o los 80).

2.- No estoy para nada de acuerdo en que Vega64 sea más rápida que la 1080, entre otras porque al ver medias de muchos juegos no sale esto:

https://www.techpowerup.com/reviews/Gig ... OC/33.html

Imagen

Imagen

Imagen

Son pruebas con 23 juegos, ni más ni menos, de última hornada y con todas las gráficas con drivers modernos (por eso he escogido esa review de una 2080, porque ahí se aprecia la evolución de las AMD y no se puede argumentar el que ganen rendimiento con drivers según van en el mercado).

Ahí lo que veo es que la Vega64 se conforma con ser equivalente a la 1080 y ya, en realidad está insertada perfectamente entre la 1070 ti y la 1080, de ahí lo absurdo de su precio, ya que no ofrece además ningún valor extra, que yo sepa (ni más VRAM ni mejores consumos, de facto peor OC, etc).

Que sí, hay juegos donde de pronto la Vega64 rinde como una 1080 ti (en esa review misma, en algunos casos, dado que no esquivan en absoluto juegos patrocinados y optimizados para AMD, como bien se puede ver en el listado), pero nos olvidamos de las veces donde no alcanzan ni a una 1070, que también los hay.

Ése es el problema de AMD, que está MUY mal posicionada en precio y no da argumento alguno para que nvidia mantenga precios, si de hecho es nvidia la que está vendiendo más barato por fps en ese mismo sector.

La misma nvidia de la subida de precios con la serie 10x0 (y lo sé de buena tinta y con dolor de mi bolsillo), que tiene mucha tela que ésa sea la que hace mejores ofertas en ese nivel, justo. No la de Maxwell, ni la de kepler ni Fermi, donde los precios y la diferencia de ventas a favor de nvidia no era tan clara (y con productos mejor posicionados de AMD y en ambos mejores precios).

3.- La guarrada de la GTX 970 es cierto que fue una fulanada, pero no tanto por el recorte en sí que en realidad no afectaba a la muy buena impresión y rendimiento que ofrecía y ofrece el producto (tuve una, y jamás tuvo problemas por sus "peculiaridades", ni usando 3GB ni usando los 4 GB completos), la fulanada fue no decirlo en las especificaciones, lo del bus podían "colarlo" porque realmente sí existe y hay un caso (mínimo) donde se usa a pleno rendimiento, malamente porque de todas formas no es realmente una tarjeta con un bus a memoria de 256 bits "plano", pero lo de las ROPs y tal sí que ya no tenía justificación alguna (el número es el que es, y no hay forma de argumentar unas condiciones extraordinarias donde sí funcionen las ROPs anunciadas).

Pero bueno, guarradas tenemos y muchas por ambos casos, que si Mantle era el futuro, que si Gsync, que hostias en vinagre. La única característica que he visto muy acertada y con un soporte y buen recorrido por AMD en sus tarjetas de última generación es el freesync, por cierto (y ya es raro, porque particularmente dada su tendencia a presentar tecnologías y abandonarlas, ya hay un chiste interno en mis círculos internos relacionados con el sector sobre esto).

@Okamura Rin

Bueno, en parte te contesto también con la respuesta a Kaiser, pero de la misma forma que NO me gusta Lisa Su, ya que me parece una ejecutiva más que simplemente ha pillado el carro cuando ya iba bien dirigido (ryzen ya estaba depurándose entonces, las primeras iteraciones de GCN fueron un éxito relativo para AMD, junto a unos buenos resultados en general desde los chips VLIW, sobre todo los diseñados para DX11), aún me gusta menos Raja Koduri.

Este señor llegó a la división gráfica en el momento justo donde AMD no tenía ningún problema con esta división, que era la que tiraba del carro, y dejó AMD cuando la división gráfica está hecha unos zorros, ¿coincidencia, culpa de Lisa su? NO lo creo. Lo cierto es que este señor se dedicó a fanfarronear desde el primer momento sobre las maravillas que se iban a fraguar en RTG, y lo único que hizo fue sacar iteración tras iteración de GCN con alguna mejora añadida, pero sin solucionar su problema endémico de malos consumos en ningún momento, apostando por tecnologías que se han demostrado muy desacertadas para el mercado mainstream (HBM y HBM2), que han dado sólo problemas a la marca, y con diseños que llegaban tarde y mal.

El que le retiraran un buena parte de la financiación fue algo que se ganó a pulso, pues lo cierto es que AMD estaba sobredimensionando demasiado ese sector de la empresa, cuando además más necesitaba dedicar esfuerzos a su división de cpu (de hecho, imagino que si tuviera los recursos que necesitaban desde el principio, Ryzen en su primera iteración sería exactamente o algo mejor que el Ryzen+ actual, pues no es ningún secreto que las mejoras de cachés de Ryzen+ eran realmente el objetivo a cumplir del primer Ryzen).

Y.... la división gráfica parecía estar trabajando en contra de AMD, incluso llegaron no pocos rumores de que se pretendía, con Raja Koduri, forzar con el mal ambiente creado a que AMD vendiera la división gráfica a otra empresa y así ser "felices y comer perdices" (o sea, "coca para todos", por las pintas que se gasta el tal Raja).

Si Lisa Su me parece un personaje gris, Koduri lo que me parece es un caradura. Bien está bien lejos de AMD, la verdad. Que total, tanto presumir de diseños y no fue capaz de hacer nada impresionante ni una gran mejora arquitectónica pero de las buenas.

Es que... si se miran los cambios que ha hecho nvidia desde kepler (coetánea de las primeras GCN) hasta Turing, pasando por Pascal y Maxwell, no cabe menos preguntarse qué coño estuvo haciendo todos esos años Koduri en tan privilegiado puesto. Que sí, que al final lloraba con "algo" de razón, pero nos olvidamos de los años de sequía de auténticas novedades desde AMD en las gráficas y entonces con un presupuesto para nada recortado (no comparado con el departamento de cpus, que aún así sacaron el diseño de Ryzen adelante).

No se puede entender la situación actual de precios sin ver los movimientos de AMBAS marcas, ambas son responsables de la situación, a nvidia le puede la avaricia, y a AMD parece que ese mercado de criptomoneda le ha secado las ganas de innovar, porque durante muchos meses ha vendido como quiso gráficas que en realidad se estaban quedando atrás para las 3D. Si es que casi parece que hubiera diseñado las últimas gpus más para eso que para jugar, por la enorme densidad de computación que alcanzan a costa de todo lo demás.

Saludos.
Vega 64 en los benchmark rinde mas o menos como la 1080, 5fps arriba/abajo, en cuanto al consumo @wwwendigo tal como viene de fabrica si que es cierto que es bastante tragona, pero en el foro hay bastantes usuarios con vega 64 y ajustando voltaje y frecuencias se obtiene muy buenos resultados tanto en temperaturas como en consumo.

En lo que coincido plenamente contigo es que amd ha realizado una gestión y planificación muy poco inteligente desde el punto de vista de ventas, ofreciendo un producto que llega tarde y mal y que en cuanto a rendimiento y consumo no aporta nada nuevo al mercado, es absurdo ver una vega 64 por un precio ligeramente por encima de la 1080, aunque si que es cierto que ya se pueden econtrar desde 550€.

Eso si para el usuario que tenga pendiente renovar el monitor el combo vega 64 + 1440p freesync sale mucho mas rentable que un monitor gsync donde nvidia cobra un riñon, uno de los mejores aciertos que ha realizado amd en estos años ha sido el freesync que por cierto ya se esta empezando a incorporar en varias tv samung y de otras marcas.
Evil_sukoide escribió:Vega 64 en los benchmark rinde mas o menos como la 1080, 5fps arriba/abajo, en cuanto al consumo @wwwendigo tal como viene de fabrica si que es cierto que es bastante tragona, pero en el foro hay bastantes usuarios con vega 64 y ajustando voltaje y frecuencias se obtiene muy buenos resultados tanto en temperaturas como en consumo.

En lo que coincido plenamente contigo es que amd ha realizado una gestión y planificación muy poco inteligente desde el punto de vista de ventas, ofreciendo un producto que llega tarde y mal y que en cuanto a rendimiento y consumo no aporta nada nuevo al mercado, es absurdo ver una vega 64 por un precio ligeramente por encima de la 1080, aunque si que es cierto que ya se pueden econtrar desde 550€.

Eso si para el usuario que tenga pendiente renovar el monitor el combo vega 64 + 1440p freesync sale mucho mas rentable que un monitor gsync donde nvidia cobra un riñon, uno de los mejores aciertos que ha realizado amd en estos años ha sido el freesync que por cierto ya se esta empezando a incorporar en varias tv samung y de otras marcas.



Cierto es, freesync es uno de los grandes aciertos de AMD, y el gran error el no adoptarlo por parte de nvidia, que más que por orgullo, por avaricia, está dejando pasar algo que está pesando en las compras de los usuarios (yo sí me planteo la compra de un monitor con freesync, pero NI de COÑA uno con Gsync por sus altos precios, en freesync, además de ser más baratos los equivalentes, es que hay toda una gama de acceso inexistente con gsync).
23 respuestas