Que las tarjetas gráficas de Intel no han tenido el lanzamiento esperado es lo que se dice un secreto a voces. A pesar de que el fabricante estadounidense no ha facilitado cifras de ventas concretas, sabemos que han llegado con una demora considerable y que su rendimiento, sin ser terrible para su precio, dista del que están dando los últimos productos de Nvidia y AMD. Tal vez por eso no sorprenda la noticia de que la compañía ha decidido reestructurar su departamento de diseño de GPU.
Según señala Bloomberg a partir de fuentes oficiales, Intel reorganizará la división de tarjetas gráficas, conocida internamente como Accelerated Computing Systems and Graphics Group (AXG), para englobarla dentro del departamento de informática de consumo, Client Compute Group (CCG). No es una jugada menor. Intel había depositado tantas esperanzas en sus GPU que incluso les había concedido su propio status diferenciado dentro del organigrama de la empresa, y mal han tenido que ir las cosas (o pobres ser los pronósticos) para ser absorbida por Client.
Por su parte, las soluciones de aceleración profesional para grandes clientes (Accelerated Computing Systems and Graphics Group) migrarán a la división Data Center & AI.
Intel ha estado actualizando el software de las tarjetas Arc para mejorar su rendimiento.
Con todo, Intel manifiesta que las tarjetas gráficas y la aceleración de procesamiento mediante GPU sigue siendo una prioridad para la empresa, para lo cual "evolucionará" su estructura para "acelerar y escalar su impacto" usando "estrategias con una voz unificada para los clientes". Según señala Tom's Hardware, Intel sigue planeando lanzar una segunda generación de sus tarjetas, y de hecho, su hoja de ruta no se habría visto alterada por los cambios, así que al menos no hay riesgo de cancelación.
Sea como fuere, el Accelerated Computing Systems and Graphics Group ha pasado a mejor vida, y Raja Koduri, que abandonó la división Radeon de AMD para liderarlo en lo que se consideró poco menos que una traición, "regresará a su rol como Arquitecto Jefe de Intel", el mismo con el que se incorporó a Intel en 2007).
Según señala Bloomberg a partir de fuentes oficiales, Intel reorganizará la división de tarjetas gráficas, conocida internamente como Accelerated Computing Systems and Graphics Group (AXG), para englobarla dentro del departamento de informática de consumo, Client Compute Group (CCG). No es una jugada menor. Intel había depositado tantas esperanzas en sus GPU que incluso les había concedido su propio status diferenciado dentro del organigrama de la empresa, y mal han tenido que ir las cosas (o pobres ser los pronósticos) para ser absorbida por Client.
Por su parte, las soluciones de aceleración profesional para grandes clientes (Accelerated Computing Systems and Graphics Group) migrarán a la división Data Center & AI.
Con todo, Intel manifiesta que las tarjetas gráficas y la aceleración de procesamiento mediante GPU sigue siendo una prioridad para la empresa, para lo cual "evolucionará" su estructura para "acelerar y escalar su impacto" usando "estrategias con una voz unificada para los clientes". Según señala Tom's Hardware, Intel sigue planeando lanzar una segunda generación de sus tarjetas, y de hecho, su hoja de ruta no se habría visto alterada por los cambios, así que al menos no hay riesgo de cancelación.
Sea como fuere, el Accelerated Computing Systems and Graphics Group ha pasado a mejor vida, y Raja Koduri, que abandonó la división Radeon de AMD para liderarlo en lo que se consideró poco menos que una traición, "regresará a su rol como Arquitecto Jefe de Intel", el mismo con el que se incorporó a Intel en 2007).
No se si el hombre es un meme andante o que siempre le dan pocos recursos, tarde y mal.
Nunca me han gustado, igual que sus micros, se pagan mucho y no dan lo que prometen.
Un saludo
Ojo porque bajo el mando de este tío se han hecho cosas muy interesantes. Por ejemplo, estuvo en ATI durante el desarrollo de las series X100, X1000, HD 2000, HD 3000, etc. También trabajó en Apple y luego en AMD desde la serie RX 5xx a Vega.
Yo apuesto a que es más una cuestión de recursos. Aunque nunca se podrá saber bien a ciencia cierta.
https://wccftech.com/intel-arc-a770-a750-a580-graphics-cards-official-specs-unveiled-up-to-32-xe-cores-16-gb-gddr6-2-1-ghz-clocks/
Pinchad en los enlaces de RT performance y test de los 48 juegos.
Porque de ser así no está pero que nada mal, la Arc 770 16GB algo más barata que la RTX 3060 de 12GB y no va pero que nada mal.
De hecho hasta me gustan si son realmente así, y me pintaría más a problema de retrasos y mala comunicación, porque la verdad es que ni sabía que existían esas tarjetas.
Han sacado bastantes benchmarks y da buenos resultados en algunos juegos en dx12 con windows 11.
El problema es que no tienen un rendimiento constante y tienen varios problemas con muchos juegos, para mi son tarjetas "early access" y se han anticipado al sacar un producto que no esta listo, pero me imagino que una vez metidos en el asunto pues retrasar las tarjetas solo habria aumentado mas la diferencia tecnológica con la competencia, veremos con el paso del tiempo o con su siguiente generación.
Han llegado en un momento en el que hay gráficas de sobra por todas partes. Si hubiesen salido cuando debían, antes del desplome de las criptos, los jugadores se las hubiesen quitado de las manos.
Aunque sigan pensando en sacar una segunda generación de gráficas dedicadas (supongo que porque ya tendrán mucho trabajo avanzado) la verdad es que estas GPUs no transmiten mucha confianza de cara a su suporte a medio-largo plazo.
Pero no tiene pinta :(
Y que el objetivo de Intel era ofrecer una alternativa a los mineros, aprovechando la falta de stock de tarjetas nvidia y amd, mas q competir en el mundo gamer.
Vamos, digo yo q alguien en Intel sabría que muy dificil iba a ser derrocar a Nvidia en el mundo gamer. Y mas asi a las primeras de cambio.
Y si ya en la primera batalla, en la guerra gamer, ya estan retirando recursos para evitar mas bajas. Pues sinceramente, más motivos para creer q su objetivo no era entrar en esa guerra.
En Intel vieron como Nvidia y Amd se llenaban los bolsillos con la mineria via GPUs. Y quisieron sumarse a la fiesta. Pero para cuando llegaron ya no habia fiesta, y así q digeron 'hola sólo pasabamos a saludar, pero ya nos vamos, q nos esta esperando el taxi'.
Estas gráficas no servían para minar. Al menos era así hace unos meses. A día de hoy ni idea porque ya no interesa minar criptos xD