Intel ARC GPU Gaming

1, 2, 3, 4, 510
Micropagos escribió:@Gnoblis

De la potencia en estos benchmark no te fies hasta no verla en juegos, la 6700xt por ejemplo sale bastante atras que una 3070 en ese benchmark, pero en juegos compite con esta.

Hombre, en Hardware Unboxed revisitaron la comaprarativa hace poco y es un 11% más lenta que la 3070 en 1080p, un 13% más lenta en 1440p y un 19% más lenta en 4K. Actualmente compite más la 3060 Ti con la 6700 xt que la 6700 xt con la 3070.
Prop Joe escribió:
Micropagos escribió:@Gnoblis

De la potencia en estos benchmark no te fies hasta no verla en juegos, la 6700xt por ejemplo sale bastante atras que una 3070 en ese benchmark, pero en juegos compite con esta.

Hombre, en Hardware Unboxed revisitaron la comaprarativa hace poco y es un 11% más lenta que la 3070 en 1080p, un 13% más lenta en 1440p y un 19% más lenta en 4K. Actualmente compite más la 3060 Ti con la 6700 xt que la 6700 xt con la 3070.

Hardware unboxed no usa SAM en tarjetas AMD, no son muy fiables.


¿Con que GPU actuales serían comparables cada modelo?
Micropagos está baneado por "Saltarse el baneo con un clon"
En redimiento Intel ofrecio poco detalles una grafica no muy precisa de lo que presume podria ser Intel DG1 vs la A370M de gama baja. Asi a ojimetro yo calculo que esta A370M debe ser comparable auna MX350 un poco mas tal vez, lo que a su vez queda un poco detras de una GTX 1050.

Para las GPU de escritorio veo dos opciones:

- Que se estas GPU pero a frecuencias de 2,5ghz.
- O que Intel tenga A780 con 48 XE Core, y las de escritorio vengan con mas unidades FP32 que estas de portátiles.

Pero es curioso como Intel las pretende sacar cerca de las RTX4000 o tienen algo competitivo rendimiento/precio, o quieren que no se las compren nadie XD.
Micropagos escribió:En redimiento Intel ofrecio poco detalles una grafica no muy precisa de lo que presume podria ser Intel DG1 vs la A370M de gama baja. Asi a ojimetro yo calculo que esta A370M debe ser comparable auna MX350 un poco mas tal vez, lo que a su vez queda un poco detras de una GTX 1050.

Para las GPU de escritorio veo dos opciones:

- Que se estas GPU pero a frecuencias de 2,5ghz.
- O que Intel tenga A780 con 48 XE Core, y las de escritorio vengan con mas unidades FP32 que estas de portátiles.

Pero es curioso como Intel las pretende sacar cerca de las RTX4000 o tienen algo competitivo rendimiento/precio, o quieren que no se las compren nadie XD.


Imagino que estarán apuntando directamente a la gama baja/media, si las sacan a precio contenido pueden tener su público.
¿Sera verdad lo del ventilador metalico? me llama la atención porque un metal girando no puede ser buena idea. [fiu]
Pacorrr escribió:
Prop Joe escribió:
Micropagos escribió:@Gnoblis

De la potencia en estos benchmark no te fies hasta no verla en juegos, la 6700xt por ejemplo sale bastante atras que una 3070 en ese benchmark, pero en juegos compite con esta.

Hombre, en Hardware Unboxed revisitaron la comaprarativa hace poco y es un 11% más lenta que la 3070 en 1080p, un 13% más lenta en 1440p y un 19% más lenta en 4K. Actualmente compite más la 3060 Ti con la 6700 xt que la 6700 xt con la 3070.

Hardware unboxed no usa SAM en tarjetas AMD, no son muy fiables.


Hace poco hicieron un bench usando esa tecnología en gráficas AMD


Y no es una característica que se deba incluir en benchmarks donde la prioridad son los "apples to apples", primero porque no todo el mundo puede usarla, segundo porque depende del juego aumenta o disminuye el rendimiento, y tercero porque también dependiendo del combo GPU/CPU varía el resultado. Al final siempre se busca la paridad en las pruebas comparando el rendimiento neto de las gráficas, y ya es el usuario luego el que decide si puede usar SAM, DLSS, o cualquier otra característica que altere el rendimiento en situaciones estándar. En general usarlo en AMD de media aumenta el rendimiento un 3% y en Nvidia se pierde lo mismo que se gana, osea un 0% XD

Que yo sepa casi ningún canal/página seria incluye resultados de SAM/ReBAR mas allá de la curiosidad en sus pruebas por eso mismo.
garbaje_de_potanzos escribió:
Pacorrr escribió:
Prop Joe escribió:Hombre, en Hardware Unboxed revisitaron la comaprarativa hace poco y es un 11% más lenta que la 3070 en 1080p, un 13% más lenta en 1440p y un 19% más lenta en 4K. Actualmente compite más la 3060 Ti con la 6700 xt que la 6700 xt con la 3070.

Hardware unboxed no usa SAM en tarjetas AMD, no son muy fiables.


Hace poco hicieron un bench usando esa tecnología en gráficas AMD


Y no es una característica que se deba incluir en benchmarks donde la prioridad son los "apples to apples", primero porque no todo el mundo puede usarla, segundo porque depende del juego aumenta o disminuye el rendimiento, y tercero porque también dependiendo del combo GPU/CPU varía el resultado. Al final siempre se busca la paridad en las pruebas comparando el rendimiento neto de las gráficas, y ya es el usuario luego el que decide si puede usar SAM, DLSS, o cualquier otra característica que altere el rendimiento en situaciones estándar. En general usarlo en AMD de media aumenta el rendimiento un 3% y en Nvidia se pierde lo mismo que se gana, osea un 0% XD

Que yo sepa casi ningún canal/página seria incluye resultados de SAM/ReBAR mas allá de la curiosidad en sus pruebas por eso mismo.

No es cierto, HU son los únicos o de los pocos así conocidos que no usan SAM/ReBar. No usarlo es como no usar el XMP de las memorias, sólo porque no venga activado nos significa que no debas hacerlo o no sea beneficioso, y más cuando desde los propios drivers de AMD tienes un bonito toggle para activarlo o desactivarlo a voluntad. Con SAM hay ganancias muy suculentas, y es una simple característica que está en las placas base desde hace eones, no estamos hablando de un reescalado que renderiza a menor resolución para ganar rendimiento ni nada parecido.
garbaje_de_potanzos escribió:
Pacorrr escribió:
Prop Joe escribió:Hombre, en Hardware Unboxed revisitaron la comaprarativa hace poco y es un 11% más lenta que la 3070 en 1080p, un 13% más lenta en 1440p y un 19% más lenta en 4K. Actualmente compite más la 3060 Ti con la 6700 xt que la 6700 xt con la 3070.

Hardware unboxed no usa SAM en tarjetas AMD, no son muy fiables.


Hace poco hicieron un bench usando esa tecnología en gráficas AMD


Y no es una característica que se deba incluir en benchmarks donde la prioridad son los "apples to apples", primero porque no todo el mundo puede usarla, segundo porque depende del juego aumenta o disminuye el rendimiento, y tercero porque también dependiendo del combo GPU/CPU varía el resultado. Al final siempre se busca la paridad en las pruebas comparando el rendimiento neto de las gráficas, y ya es el usuario luego el que decide si puede usar SAM, DLSS, o cualquier otra característica que altere el rendimiento en situaciones estándar. En general usarlo en AMD de media aumenta el rendimiento un 3% y en Nvidia se pierde lo mismo que se gana, osea un 0% XD

Que yo sepa casi ningún canal/página seria incluye resultados de SAM/ReBAR mas allá de la curiosidad en sus pruebas por eso mismo.


Es que por esa regla de tres ninguna prueba vale por que los resultados que tu sueles ver son con un hardware que tu no tienes, si tus ves benchmarks de una 3080 no van a ser igual que los de la tuya por que tu igual tienes un 2600k y el benchmark esta con un 12900k, asi que ya me contaras

El SAM si deberia de incluirse en el resultado, primero por que mejora, y segundo por que no perjudica o repercute en nada, al contrario del dlss por ejemplo el cual si que repercute en un procesamiento de la imagen, tu con el SAM obtienes exactamente la misma imagen con el activado que desactivado, por eso no tiene ningun sentido no activarlo si mejora, ¿que no lo tiene todo el mundo? cierto, pero menos gente tiene un 12900k y es con la cpu que se suelen hacer todos los benchmarks actualmente

A hardware unboxed le han dado palos por lo mismo y hace unos meses recuerdo sacar un video rectificando un resultado
Llevo como un año escuchando que salían ya y estamos ya a las puertas de las 4000 y las 7000...🙄

A qué espera esta gente para sacarlas?
Micropagos está baneado por "Saltarse el baneo con un clon"
FranciscoVG escribió:
garbaje_de_potanzos escribió:
Pacorrr escribió:Hardware unboxed no usa SAM en tarjetas AMD, no son muy fiables.


Hace poco hicieron un bench usando esa tecnología en gráficas AMD


Y no es una característica que se deba incluir en benchmarks donde la prioridad son los "apples to apples", primero porque no todo el mundo puede usarla, segundo porque depende del juego aumenta o disminuye el rendimiento, y tercero porque también dependiendo del combo GPU/CPU varía el resultado. Al final siempre se busca la paridad en las pruebas comparando el rendimiento neto de las gráficas, y ya es el usuario luego el que decide si puede usar SAM, DLSS, o cualquier otra característica que altere el rendimiento en situaciones estándar. En general usarlo en AMD de media aumenta el rendimiento un 3% y en Nvidia se pierde lo mismo que se gana, osea un 0% XD

Que yo sepa casi ningún canal/página seria incluye resultados de SAM/ReBAR mas allá de la curiosidad en sus pruebas por eso mismo.


Es que por esa regla de tres ninguna prueba vale por que los resultados que tu sueles ver son con un hardware que tu no tienes, si tus ves benchmarks de una 3080 no van a ser igual que los de la tuya por que tu igual tienes un 2600k y el benchmark esta con un 12900k, asi que ya me contaras

El SAM si deberia de incluirse en el resultado, primero por que mejora, y segundo por que no perjudica o repercute en nada, al contrario del dlss por ejemplo el cual si que repercute en un procesamiento de la imagen, tu con el SAM obtienes exactamente la misma imagen con el activado que desactivado, por eso no tiene ningun sentido no activarlo si mejora, ¿que no lo tiene todo el mundo? cierto, pero menos gente tiene un 12900k y es con la cpu que se suelen hacer todos los benchmarks actualmente

A hardware unboxed le han dado palos por lo mismo y hace unos meses recuerdo sacar un video rectificando un resultado


Esque me da a mí que no entendéis el concepto de comparar el rendimiento por defecto de las gráficas cuando se compran, y se elige procesadores TOPS para que no haya cuello de botella y sacar a relucir el todo el rendimiento posible de las gráficas, esto es la regla básica de todo bench. Quien quiera saber el rendimiento de X procesador con X gráfica mejor que busque otras fuentes.

Para usar SAM necesitas unos procesadores específicos, una placa base 550+ compatible y una gráfica 6000, dentro de esa variable está otra condición de que un porcentaje de los juegos probados influye negativamente al rendimiento (no se donde sacáis que no hay pegas), en otro los mejora y en otros no aporta nada. Luego a esas dos variables incluye otra que se comporta totalmente diferente si usas una 6600 a una 6900 XT, donde con una hay ganancias con la otra no.... Yo veo motivos suficientes ahí como para no meterlas por defecto en los bench, al menos no mas que como una curiosidad aparte por si quieren aportarla como alguna vez he visto, o un benchmark específico para la tecnología como ha hecho HUB y otros canales. Pero que yo sepa ni HUB, ni Gamers Nexus, ni gamegpu ni Linus ni otros tantos medios suelen usarla por defecto, por los motivos antes mencionados, demasiadas condiciones y variables que no hacen mas que confundir al consumidor.

Y dicho esto no se ni que hacemos discutiendo sobre el SAM en un post de Intel ARC [qmparto] , que dicho sea de paso me da a mi que no van a triunfar demasiado a corto plazo, espero equivocarme pero a mi no me entusiasma ni creo que vayan a mejorar lo que ya hay.
garbaje_de_potanzos escribió:
FranciscoVG escribió:
garbaje_de_potanzos escribió:
Hace poco hicieron un bench usando esa tecnología en gráficas AMD


Y no es una característica que se deba incluir en benchmarks donde la prioridad son los "apples to apples", primero porque no todo el mundo puede usarla, segundo porque depende del juego aumenta o disminuye el rendimiento, y tercero porque también dependiendo del combo GPU/CPU varía el resultado. Al final siempre se busca la paridad en las pruebas comparando el rendimiento neto de las gráficas, y ya es el usuario luego el que decide si puede usar SAM, DLSS, o cualquier otra característica que altere el rendimiento en situaciones estándar. En general usarlo en AMD de media aumenta el rendimiento un 3% y en Nvidia se pierde lo mismo que se gana, osea un 0% XD

Que yo sepa casi ningún canal/página seria incluye resultados de SAM/ReBAR mas allá de la curiosidad en sus pruebas por eso mismo.


Es que por esa regla de tres ninguna prueba vale por que los resultados que tu sueles ver son con un hardware que tu no tienes, si tus ves benchmarks de una 3080 no van a ser igual que los de la tuya por que tu igual tienes un 2600k y el benchmark esta con un 12900k, asi que ya me contaras

El SAM si deberia de incluirse en el resultado, primero por que mejora, y segundo por que no perjudica o repercute en nada, al contrario del dlss por ejemplo el cual si que repercute en un procesamiento de la imagen, tu con el SAM obtienes exactamente la misma imagen con el activado que desactivado, por eso no tiene ningun sentido no activarlo si mejora, ¿que no lo tiene todo el mundo? cierto, pero menos gente tiene un 12900k y es con la cpu que se suelen hacer todos los benchmarks actualmente

A hardware unboxed le han dado palos por lo mismo y hace unos meses recuerdo sacar un video rectificando un resultado


Esque me da a mí que no entendéis el concepto de comparar el rendimiento por defecto de las gráficas cuando se compran, y se elige procesadores TOPS para que no haya cuello de botella y sacar a relucir el todo el rendimiento posible de las gráficas, esto es la regla básica de todo bench. Quien quiera saber el rendimiento de X procesador con X gráfica mejor que busque otras fuentes.

Para usar SAM necesitas unos procesadores específicos, una placa base 550+ compatible y una gráfica 6000, dentro de esa variable está otra condición de que un porcentaje de los juegos probados influye negativamente al rendimiento (no se donde sacáis que no hay pegas), en otro los mejora y en otros no aporta nada. Luego a esas dos variables incluye otra que se comporta totalmente diferente si usas una 6600 a una 6900 XT, donde con una hay ganancias con la otra no.... Yo veo motivos suficientes ahí como para no meterlas por defecto en los bench, al menos no mas que como una curiosidad aparte por si quieren aportarla como alguna vez he visto, o un benchmark específico para la tecnología como ha hecho HUB y otros canales. Pero que yo sepa ni HUB, ni Gamers Nexus, ni gamegpu ni Linus ni otros tantos medios suelen usarla por defecto, por los motivos antes mencionados, demasiadas condiciones y variables que no hacen mas que confundir al consumidor.

Y dicho esto no se ni que hacemos discutiendo sobre el SAM en un post de Intel ARC [qmparto] , que dicho sea de paso me da a mi que no van a triunfar demasiado a corto plazo, espero equivocarme pero a mi no me entusiasma ni creo que vayan a mejorar lo que ya hay.

El tema ha salido porque se ha hablado de hardware unboxed sobre una comparativa donde se dice que la 3070 le saca un 19% a la 6700XT 4K cuando eso no es real en un equipo medianamente moderno, todas las placas base recientes, desde las más antiguas de hace más de 4 años como B350, X370, B450, X470, Z370, H370, B360, B310 y por supuesto más modernas que esas, lo incluyen. Como te han dicho, variables hay miles, ya con distintas placas, memorias y procesadores los resultados son muy variables igualmente incluso sin activar el SAM/ReBar. No activarlo porque a una de las dos marcas la perjudique más que a la otra, deja claras las intenciones. Hay juegos en los que se gana de un 20 a un 30%, que no es poca cosa, y no es cosa de 2 o 3 juegos nada más.

Esta imagen es de cuando Nvidia activó el ReBar en sus gráficas y HU hizo la comparativa entre ambas marcas en 18 juegos, 1 año después no les parece oportuno activarlo

Imagen

Por mi parte ya dejo el tema, pero me parece muy oportuno que se active el SAM porque da unas ganancias muy buenas (al menos en las AMD), y es sólo una característica de la placa base para comunicarse más rápido con la tarjeta, como cualquier otra opción como puede ser el xmp para la ram, nadie en su sano juicio dejaría eso desactivado.
Nomada_Firefox escribió:¿Sera verdad lo del ventilador metalico? me llama la atención porque un metal girando no puede ser buena idea. [fiu]

Yo una vez partí el aspa de una grafica por trastear con el ordenador prendido... XD
Bueno, eso sucede con facilidad, tampoco creo que por ser de metal sean indestructibles. Ademas tiene que ser algun material que no afecte al resto de componentes y barato.

Estaba viendo estas especificaciones https://videocardz.com/newz/intel-tease ... op-arc-gpu y creo que el precio no va a acompañar. Que estas tarjetas las van a vender caras por tener cosas como la cantidad de memoria que la competencia no tiene, independientemente de si el rendimiento es peor. Al final el precio en tienda no lo va a poner Intel, el maximo seguro que no.
Micropagos está baneado por "Saltarse el baneo con un clon"
AMD le de la bienvenida a Intel XD

Imagen
Si es por drivers inmaduros, creo que Intel se está equivocando al no sacarla sus gráficas todavía. Tener drivers mejorables es entendible por todos los que compren Intel, pero no aprovechar la coyuntura actual de que se venda todo es una bobería. Yo compraría y esperaría a drivers mejores.
floppybird escribió:Si es por drivers inmaduros, creo que Intel se está equivocando al no sacarla sus gráficas todavía. Tener drivers mejorables es entendible por todos los que compren Intel, pero no aprovechar la coyuntura actual de que se venda todo es una bobería. Yo compraría y esperaría a drivers mejores.

Podría ser un poco como lo que pasa con AMD y sus drivers, a menos que los drivers de Intel no es que estén inmaduros sino que directamente sean un desastre [mad] y por eso no las sacan
Micropagos escribió:AMD le de la bienvenida a Intel XD

Imagen

Bueno, yo de las diapositivas de AMD tampoco me fiaría tanto, que ya sabemos lo que le gusta mentir a esa empresa (igual que a otras, que cada uno barre para casa siempre), coger los datos que les interesa nada más con pinzas, etc...

Ojo, que no digo que las gráficas de Intel sean mejor o peor, no he visto todavía ninguna review de ningún sitio fiable, con distintos juegos, ni las he probado, etc...

Saludos.
Micropagos está baneado por "Saltarse el baneo con un clon"
Se barajean varias teorías.

Mas que drivers inmaduros, puede ser las funciones que tiene los drivers de hoy, el software que presentó intel con las laptos se ve bastante simple hecho como a última hora.

Otros dicen que es por el tema laptos , que intel obligo a sacar versiones para laptos que no estaban planeadas, y eso ha retrasado las de escritorio.

Otros dicen que es por temas de rendimiento que no cumplía muy bien, y que han venido haciendole mejora y que posiblemente se tenga una A780 con mas Xe-core.

Pero de momento quien sabe cual es razon real, de retrasarlas tanto.
Pero cuando las lanzan?Porque madre mía...llevan así más de un año...que salen ya y no salen.
Se van a pegar un batacazo guapo.Solo les salva que no haya stock de otras porque las van a sacar tarde.
Gnoblis escribió:
floppybird escribió:Si es por drivers inmaduros, creo que Intel se está equivocando al no sacarla sus gráficas todavía. Tener drivers mejorables es entendible por todos los que compren Intel, pero no aprovechar la coyuntura actual de que se venda todo es una bobería. Yo compraría y esperaría a drivers mejores.

Podría ser un poco como lo que pasa con AMD y sus drivers, a menos que los drivers de Intel no es que estén inmaduros sino que directamente sean un desastre [mad] y por eso no las sacan

Y qué pasa con AMD y sus drivers? Llevo ya un año y pico con una 6800XT y me gustaría enterarme XD
Pacorrr escribió:
Gnoblis escribió:
floppybird escribió:Si es por drivers inmaduros, creo que Intel se está equivocando al no sacarla sus gráficas todavía. Tener drivers mejorables es entendible por todos los que compren Intel, pero no aprovechar la coyuntura actual de que se venda todo es una bobería. Yo compraría y esperaría a drivers mejores.

Podría ser un poco como lo que pasa con AMD y sus drivers, a menos que los drivers de Intel no es que estén inmaduros sino que directamente sean un desastre [mad] y por eso no las sacan

Y qué pasa con AMD y sus drivers? Llevo ya un año y pico con una 6800XT y me gustaría enterarme XD

Salen verdes y mejoran sobre la marcha con cada actualización, con el tiempo envejecen bien, como ya llevas año y pico ya no tienes problemas que haya habido en el lanzamiento
Gnoblis escribió:
Pacorrr escribió:
Gnoblis escribió:Podría ser un poco como lo que pasa con AMD y sus drivers, a menos que los drivers de Intel no es que estén inmaduros sino que directamente sean un desastre [mad] y por eso no las sacan

Y qué pasa con AMD y sus drivers? Llevo ya un año y pico con una 6800XT y me gustaría enterarme XD

Salen verdes y mejoran sobre la marcha con cada actualización, con el tiempo envejecen bien, como ya llevas año y pico ya no tienes problemas que haya habido en el lanzamiento

Sí es cierto que con el tiempo sacan más rendimiento, pero no lo veo como algo malo, quiero decir, tú cuando la compras la compras con el rendimiento que tiene en ese momento, estás de acuerdo en comprarla con ese rendimiento, si luego más adelante resulta que te encuentras más, pues me parece algo positivo. Por ejemplo cuando yo compré la 6800XT en Time Spy daba unos 17800 puntos de gráficos, al cabo de unos 6 meses sacaron dos versiones de drivers casi consecutivas que subieron el rendimiento, una a los ~18500 puntos y la otra hasta los ~19000, hoy en día está dando ~19200, todo esto hablo de stock, sin OC. Pero vamos que bugs o problemas gordos no he tenido, algún bug específico en algún juego o algo puntual sí ha habido, pero nada grave, y lo han solido corregir relativamente pronto (los que yo he experimentado al menos).

Y sobre las tarjetas Arc, yo pienso que no las sacan porque no rinden lo esperado, es típico de Raja Koduri, ya retrasó Vega casi un año porque no rendían lo que tenían que rendir, y ahora estará haciendo lo mismo.
Pacorrr escribió:
Gnoblis escribió:
Pacorrr escribió:Y qué pasa con AMD y sus drivers? Llevo ya un año y pico con una 6800XT y me gustaría enterarme XD

Salen verdes y mejoran sobre la marcha con cada actualización, con el tiempo envejecen bien, como ya llevas año y pico ya no tienes problemas que haya habido en el lanzamiento

Sí es cierto que con el tiempo sacan más rendimiento, pero no lo veo como algo malo, quiero decir, tú cuando la compras la compras con el rendimiento que tiene en ese momento, estás de acuerdo en comprarla con ese rendimiento, si luego más adelante resulta que te encuentras más, pues me parece algo positivo. Por ejemplo cuando yo compré la 6800XT en Time Spy daba unos 17800 puntos de gráficos, al cabo de unos 6 meses sacaron dos versiones de drivers casi consecutivas que subieron el rendimiento, una a los ~18500 puntos y la otra hasta los ~19000, hoy en día está dando ~19200, todo esto hablo de stock, sin OC. Pero vamos que bugs o problemas gordos no he tenido, algún bug específico en algún juego o algo puntual sí ha habido, pero nada grave, y lo han solido corregir relativamente pronto (los que yo he experimentado al menos).

Y sobre las tarjetas Arc, yo pienso que no las sacan porque no rinden lo esperado, es típico de Raja Koduri, ya retrasó Vega casi un año porque no rendían lo que tenían que rendir, y ahora estará haciendo lo mismo.
No dije en ningún momento que fuera algo malo, al contrario, dije que Intel pudiera hacer lo mismo en lugar de retrasarse por buscar salir cuando los controladores estén casi perfectos.
Fue una descripción no una critica.
Micropagos está baneado por "Saltarse el baneo con un clon"
No me convence estos precios, para una empresa que quiere hacerse hueco por primera vez, A750 deberia costar menos de $300, $250 seria un precio acorde.

https://wccftech.com/intel-arc-graphics-ready-for-showtime-a750-a580-and-a380-gpu-sales-embargo-msrp-and-positioning/amp/

Y llegan muy tarde.
Micropagos escribió:No me convence estos precios, para una empresa que quiere hacerse hueco por primera vez, A750 deberia costar menos de $300, $250 seria un precio acorde.

https://wccftech.com/intel-arc-graphics-ready-for-showtime-a750-a580-and-a380-gpu-sales-embargo-msrp-and-positioning/amp/

Y llegan muy tarde.

Pues no sé qué quieres, la verdad, si según el enlace que tú mismo pones, la A750 equivale a una RTX 3060 y cuesta 350$, la A580 que equivale a una RTX 3050 cuesta 280$ y la A380 cuesta 150$ y equivale a una GTX 1650, que todas las gráficas equivalentes de NVIDIA cuestan actualmente bastante más, pues no sé dónde ves el problema, si costaran más caras entendería el desacuerdo, pero costando menos...

¿Qué cuestan las gráficas de AMD o NVIDIA equivalentes actualmente?

Saludos.
Opino igual,
si como dicen en la noticia mantienen contenidos los precios a los de salida, veo que serán más o menos competitivos.
La cosa es que no empiecen a dar muchos problemas. Aunque seguro que alguno habrá al ser la 1ª iteración.

Esperemos que les vaya suficientemente bien para seguir lanzando iteraciones de Tarjetas gráficas, para que haya todavía más competencia, que eso siempre es bueno.
Micropagos está baneado por "Saltarse el baneo con un clon"
A igualdad de precio no tienen ningun oportunidad si a la gente le das elegir entre una Nvidia y Intel al mismo precio, te van elegir la primera, incluso aunque la diferencia de precio sea 50 a favor de la Intel.

Que esperaba? Que siendo su primera interacción fueran más agresivos y competitivos en precios, ya de por sí $350 por una gama-media es un precio inflado, que mejor que ganar cuota de mercado con precio mas competitivo y normal para una gama-media entre los $250.

También se suma el factor tarde, estas GPU llegan en un momento donde ya se barajean las próximas Nvidia y AMD con saltos de 2x y 3X, en pocos meses van quedar desfasadas en rendimiento, y lo mas probable que hasta una de 200€ de la proxima generacion termine siendo superior a esta.

Al menos en mi opinión personal veo un sin sentido esos precios, el stock ya no es problema, y por esos precios la gente se va estirar por algo conocido en Nvidia y AMD o se van van esperar la próxima generación que esta al caer.
Dr.Stone está baneado por "clon de usuario baneado"
Pintan mal estas GPU.
Y se vienen más retrasos parece. Al final van a competir con lo próximo de Nvidia y AMD , en momentos ya sin problema de stock y con esos precios... Esto tendría que haber salido a precios contenidos hace meses
Entre los drivers inmaduros, los retrasos y los precios Intel se la va a pegar. ¿50 pavos más barato que una Nvidia? No se lo creen ni ellos. Estaba esperando que sacaran algo barato y no me importaba hacer de beta tester con los drivers, pero con esos precios y esos plazos que se las metan por donde amargan los pepinos.
Micropagos está baneado por "Saltarse el baneo con un clon"
El rendimiento no esta mal , pero van competir con la nueva generación de AMD y Nvidia cuando salgan.

https://videocardz.com/newz/intel-arc-a370m-has-been-tested-by-pcworld-small-alchemist-with-geforce-rtx-3050-performance
Que salgan ya que llegan tarde.
mrmanson16v escribió:Que salgan ya que llegan tarde.

Es que tienen un problema, que se deben fabricar en china y dicho pais esta un tanto en cuarentena va, cuarentena viene. Ademas al final les va a venir bien no ser las primeras feas del baile y dejar que la competencia saque sus nuevas graficas.
Ahora se comenta que primero solo van a estar disponibles en China.

Para cuando lleguen aquí Nvidia y AMD ya van a tener su nueva generación, cada vez pinta peor.
Parece que los drivers no son una joya en un analisis de la Intel Arc A380.
https://videocardz.com/newz/intel-arc-a ... ming-tests
Pero yo no lo veo como un fracaso porque no esperaba nada mejor en ese tema, Nvidia y AMD, llevan años evolucionando sus drivers, estos apenas dos dias, van a tardar a estar a un buen nivel.

A parte de eso, es evidente que los probadores van a ser los clientes. :-|
Con las gráficas bajando de precio y la próxima salida de la nueva generación de Nvidia y AMD ¿Queda algún motivo para desear una tarjeta de Intel por encima de las viejas conocidas?
Gnoblis escribió:Con las gráficas bajando de precio y la próxima salida de la nueva generación de Nvidia y AMD ¿Queda algún motivo para desear una tarjeta de Intel por encima de las viejas conocidas?

Que te sobre el dinero y te apetezca probar una me parece el unico motivo. :-|
dicker31 escribió:
Nomada_Firefox escribió:¿Sera verdad lo del ventilador metalico? me llama la atención porque un metal girando no puede ser buena idea. [fiu]

Yo una vez partí el aspa de una grafica por trastear con el ordenador prendido... XD


Ahora con esa mejora te cortaras un dedo xd
Necrofero escribió:
dicker31 escribió:
Nomada_Firefox escribió:¿Sera verdad lo del ventilador metalico? me llama la atención porque un metal girando no puede ser buena idea. [fiu]

Yo una vez partí el aspa de una grafica por trastear con el ordenador prendido... XD


Ahora con esa mejora te cortaras un dedo xd

Yo me corté con un ventilador con aspas de plástico así que si son metálicas... WOW! [sati]
Tanto ha decaído el interés por estas gráficas que ni se habla de la que ya han anunciado [+risas] .

https://www.youtube.com/watch?v=uctDN9uYcXI

No pinta mal, pero o le ponen un buen precio y rinde lo que realmente dicen o yo no la compraría antes que una Nvidia, por ejemplo. Para estas primeras, o asumen pérdidas o lo van a tener complicado.
eric_14 escribió:Tanto ha decaído el interés por estas gráficas que ni se habla de la que ya han anunciado [+risas] .

https://www.youtube.com/watch?v=uctDN9uYcXI

No pinta mal, pero o le ponen un buen precio y rinde lo que realmente dicen o yo no la compraría antes que una Nvidia, por ejemplo. Para estas primeras, o asumen pérdidas o lo van a tener complicado.


Esque básicamente están pidiendo Betatesters de pago para la arquitectura Alchemist y sus drivers. Gamers Nexus analizó la gama de entrada A380 y los resultados eran demasiado variables, igual se ponía al nivel de una 6500 XT, en otros por debajo de una 6400, en otros el frametime es demasiado inestable además que el soporte en juegos bajo Dx11 o anteriores son nefastos. Tienen potencial?? Puede ser, pero para que jugártela con dolores de cabeza y esperando revisiones de drivers cuando puedes ir por una AMD o Nvidia que llevan décadas madurando sus drivers.

Además que llegan 2 años tarde, sacar productos que igualan en precio y prestaciones gráficas con 2 años o mas en el mercado, estando las nuevas a la vuelta de la esquina... se han visto o que las sacan ya como sea o no se comen una mierda xD

También está el hecho de lanzarlas en el mercado chino de manera casi silenciosa... saben que es un mercado con mucha demanda, no tan exigente ni con apenas ruido en la red como el resto del mundo y para mi demuestra que saben que sus gráficas no van a ser muy competitivas que digamos
También han pillado una mala época para lanzar nada, con escasez de componentes, quizás también han sobrevalorado sus drivers y luego han visto los grandes problemas que tiene, etc.. Pero el resultado es un producto poco apetecible a menos que lo medio regalen.

Hasta que no se vea el precio real en tienda tampoco veremos si puede valer la pena en algún caso.
EMC2 está baneado por "Troll"
Intel lleva un tiempo con los drivers de sus IGPU, tampoco es que sean muy nuevos en esto.

Estas GPU era interesante para finales del 2021 o principios del 2022, cuando habia escases y precios surrealista , a estas alturas y faltando poco meses para salida de la nueva generación de Nvidia y AMD pues.....

Sin sumar los problemas de drivers comentado, es un fail de Intel esta primera generación de GPU dedicadas.
Salvo precio derribo parece que se las van a comer.
460 respuestas
1, 2, 3, 4, 510