Chisme caliente: Noticias sobre AMD Vishera

1, 2, 3
Imagen

AMD parece que esta vez si planeo un poco mejor el lanzamiento de sus nuevos productos en materia de procesadores, y es que saldran al mercado casi a la misma fecha que Windows 8, donde amd anucnia que la tecnologia en los APUs trinity y CPUs FX Vishera aprovechan y explotan al maximo algunas funciones encontradas en windows 8.

Imagen

http://lensfire.blogspot.com.es/2012/07 ... pu-fx.html

Tambien se anuncia que AMD dejara de producir los procesadores AMD FX Zambezi al mismo tiempo que salgan los FX-2 con lo que solo quedran los disponibles en el stock de tiendas y alamcenes.


Estas serian los modelos y frecuencias finales con que saldrian a la venta

Imagen


A continucacion pongo al lista completa de proceadores APU serie A y FX-2 [Vishera] que saldran al mercado de computadoras de escritorio para gama media y gama alta.

http://i.imgur.com/GSq2a.png

Ejecutivo de AMD desmiente los rumores de que se cancelaria Vishera [BD v2], asu vez desmiente que Vishera {FX-2} seria el ultimo CPU de AMD confirmando que seguira en desarrollo SteamRoller [BD v3] y Excavator

Cesariuth escribió:
Vishera sigue en camino, pero sería el último CPU de AMD.

Se desmienten los rumores de que AMD cancelaría Vishera para este año, en pos de potenciar su nueva arquitectura Steamroller para el 2013, junto con la excusa de la poca ganancia que es pasar de Bulldozer a Pelidriver. Pero por otro lado, el rumor de que AMD fabricaría su último CPU para escritorio, tiene toda la pinta de ser cierto.La compañía le dará completo foco a APUs.

Hace poco muchos medios comenzaron a especular sobre la posible salidad de Vishera del roadmap de este año de AMD. Incluso iban más allá con el rumor, Vishera sería cancelado para dar paso el 2013 a “steamroller” o “excavator” en 28nm. Pues, ese rumor, ha sido desmentido por Phil Hughes de AMD (Senior PR Manager), quien nos comenta en su twitter “…Vishera y otros productos 2012 , no han tenido cambios.”, respondiendo así a una consulta sobre los rcientes rumores esparcidos por el sitio vr-zone en este articulo. Vishera aparecerá este año en una fecha aun no conocida.

Imagen

Por otro lado, los samples de el nuevo CPU de AMD comienzan a circular y después de haber visto algunos resultados, tenemos otra muestra dando vueltas. Esta vez es de un conocido, el checo OBRovsky, quien también desmiente los rumores sobre la cancelación de Vishera y reafirma que FX-2.0 es el CPU Vishera, con los nuevos núcleos Pelidriver. Este CPU, por ahora, continúa con la marca Bulldozer pero es identificables con la revisión “C0″ (Bulldozer es B2) en CPU-Z. Además comenta sobre la existencia de documentos internos de AMD, donde se revela que la compañía fabricará su último CPU, centrándose sólo en APUs. Esto era algo que ya se había comentado a inicios de año cuando AMD presento su roadmap 2012-2013, donde los CPUs FX de 8 núcleos tenían presencia para este año y para el próximo no se avistaba recambio.



Legit News escribió:
AMD Remains Committed to the Performance CPU Market

Legit Reviews recently noticed that a number of sites are saying that AMD has cancelled their desktop Piledriver processors codenamed Vishera and other sites are reporting that Piledriver will be the last of performance CPU from AMD. Will AMD be discontinuing its performance processors for the desktop market after the launch of Vishera? We find it hard to believe that AMD would stop developing Steamroller (2013) and Excavator (2014), but you never know as AMD is starting to focus on APU's these days. AMD normally just provides the following response when we ask about online rumors or breaking news - “We don’t comment on rumors.” We were shocked to hear something different when we heard back from them this morning. It was a simple one line statement that says AMD remains committed to the performance processor market. We will have to see how this unfolds in the months to come!

Imagen



http://www.legitreviews.com/news/13942/
osease xd que del 2013 en adelante el que quiera amd cambio de plataforma y santa polla
No entiendo a que te refieres, lo que si se dice es que Vishera pudiera ser el ultimo CPU para socket AM3+, que segun leo, muchos usuarios quisieran que ya todos los procesadores PileDriver/PileDriver+ [apu trinity/fx-vishera] en adelante usen socket FM2 o su sucesor cual quiera que fuere.
Ya ha desmentido AMD que vaya a dedicarse solamente a las APU's.

También era lógico que si "supuestamente" están optimizados para Win8, salgan cuando este salga y no tengamos dos generaciones de CPU's win8 antes de que este salga.
Dfx escribió:Ya ha desmentido AMD que vaya a dedicarse solamente a las APU's.

También era lógico que si "supuestamente" están optimizados para Win8, salgan cuando este salga y no tengamos dos generaciones de CPU's win8 antes de que este salga.



donde esta esa noticia ? quiero leerla
Mer parece que fue en legitireviews donde hablaron con un ejecutivo de AMD sobre este rumor y donde ese ejecutivo que atendio su llamada desmintio dicho rumor.
Hasta que no lo vea no lo creo.. Mucho me he creido yo de estos incompetentes, que si los phenom II iban a ser lo mejor, que si los phenom II x6 iban a ser lo mejor, que si los bulldozer iban a ser lo mejor... Y ahora igual, que si los vishera van a ser lo mejor.. Sinceramente, no me lo creo
Kanijo1 escribió:Hasta que no lo vea no lo creo.. Mucho me he creido yo de estos incompetentes, que si los phenom II iban a ser lo mejor, que si los phenom II x6 iban a ser lo mejor, que si los bulldozer iban a ser lo mejor... Y ahora igual, que si los vishera van a ser lo mejor.. Sinceramente, no me lo creo



lo mejor.... de amd xD
WiiBoy escribió:
Kanijo1 escribió:Hasta que no lo vea no lo creo.. Mucho me he creido yo de estos incompetentes, que si los phenom II iban a ser lo mejor, que si los phenom II x6 iban a ser lo mejor, que si los bulldozer iban a ser lo mejor... Y ahora igual, que si los vishera van a ser lo mejor.. Sinceramente, no me lo creo



lo mejor.... de amd xD

Es que me da rabia, me he gastado mucha pasta por sus mentiras, hasta que no vea el cambio con mis ojos no me lo creo
no haces las cosas bien hombre si kieres rendimiento pues subes el procesador a 8500mhz y ya esta... xD

yo pillare el vishera ese cuando salga y te cuento xd
WiiBoy escribió:no haces las cosas bien hombre si kieres rendimiento pues subes el procesador a 8500mhz y ya esta... xD

yo pillare el vishera ese cuando salga y te cuento xd

[oki]
Pues le tengo fe a la idea del CMT de AMD, solo me falta ver que tan bien implementado esta la idea en el Bulldozer ver 2 [Piledriver+]
WiiBoy escribió:
Dfx escribió:Ya ha desmentido AMD que vaya a dedicarse solamente a las APU's.

También era lógico que si "supuestamente" están optimizados para Win8, salgan cuando este salga y no tengamos dos generaciones de CPU's win8 antes de que este salga.



donde esta esa noticia ? quiero leerla


Lo siento Wiiboy, no me había fijado que me habías contestado hasta hoy xD

http://www.noticias3d.com/noticia.asp?idnoticia=53679

http://www.legitreviews.com/news/13942/

Sobre AMD, creo que van un paso por detrás y no les queda otra que recuperar ese paso o ofrecer sus productos a base de marketing ya sea por el numero de nucleos o por precio.

Aun asi, esto es lo de siempre, si Intel estuviera en esta situación, haría exactamente lo mismo, perder a AMD como competencia no nos interesa a nadie del mundillo, de hecho veríamos con buenos ojos que entrase alguna compañía mas.
Totalmente de acuerdo, cuando VIA saco sus procesadores pense que seria una competencia hacia intel y amd al menos en le mercado de oficina y multimedia de gama baja, lo cual hubiera sido magnifico.
amd ha confirmado que no es asi, que sacaran toda slas cpu que tienen anunciadas y siguen con los planes previstos, para 2013 y 2014.
Con una visita a su pagina oficial se puede leer el comunicado.
Y el problema no son las cpu el problema es la plataforma que esta obsoleta, y aunque en monogpu aun pueda ir tirando, en sli o cross es una mierda de estructura que tiene, que simplemente no funciona bien.
Por plataforma me imagino que te refieres al zocalo AM3+ y los chipsets, ¿no? Si es eso, es de lo que he venido leyendo tienen quejas algunos usuarios y que en definitiva pasen a zocalo FM2 y el NB integrado al mismo procesador.
AMD Vishera?

Ahora los ancianos podrán usar internet.

¿Por que lo digo? Por lo de la vieja al vishillo (xD)
TRASTARO escribió:Por plataforma me imagino que te refieres al zocalo AM3+ y los chipsets, ¿no? Si es eso, es de lo que he venido leyendo tienen quejas algunos usuarios y que en definitiva pasen a zocalo FM2 y el NB integrado al mismo procesador.


No creo por que estaban ya en el roadmap los chipsets 10xx, que imagino que como mucho aportaran soporte para DDR4 y pcie 3.0
Dfx escribió:
TRASTARO escribió:Por plataforma me imagino que te refieres al zocalo AM3+ y los chipsets, ¿no? Si es eso, es de lo que he venido leyendo tienen quejas algunos usuarios y que en definitiva pasen a zocalo FM2 y el NB integrado al mismo procesador.


No creo por que estaban ya en el roadmap los chipsets 10xx, que imagino que como mucho aportaran soporte para DDR4 y pcie 3.0


la verdad es que desde hace ya mucho las placas de amd son mas chusteras que las de intel, y no entiendo porque.... deberian espabilar mas con el tema de los chipset de placa
Lo que argumentan los detractores del zocalo AMxx y a favro del FMx es por el tema del soporte directo del procesador con el NB integrado reduciendo cuellos de botella, asi como sucede con los APUs y algunos sempron y athlon II FM1.

Otros como menciona Dfx argullen que con la salida de los chipset 10xx -que ya se han atrasado bastante- habria una posible salida de un zocalo AM4 que vendria a mejorar el rendimiento en el bus de datos y cosas asociadas para ser igual o superior al FM2.
WiiBoy escribió:
Dfx escribió:
TRASTARO escribió:Por plataforma me imagino que te refieres al zocalo AM3+ y los chipsets, ¿no? Si es eso, es de lo que he venido leyendo tienen quejas algunos usuarios y que en definitiva pasen a zocalo FM2 y el NB integrado al mismo procesador.


No creo por que estaban ya en el roadmap los chipsets 10xx, que imagino que como mucho aportaran soporte para DDR4 y pcie 3.0


la verdad es que desde hace ya mucho las placas de amd son mas chusteras que las de intel, y no entiendo porque.... deberian espabilar mas con el tema de los chipset de placa


Lo que necesitan es una plataforma diseñada desde cero, como las Fm1/2 que le meten una buena tunda a las actuales am3+ en unificación, coste, tecnología y aprovechamiento de los procesadores ;)
Que yo sepa el chipset 10xx, es am3+, a no ser que quieran sacarse de la manga algo tipo am3++, si hablásemos de am4, significaría que piledriver no seria compatible con am3+, lo que contradice lo que ha estado diciendo amd todo este tiempo.

Yo opto por am3+ con soporte pcie 3.0 y como mucho DDR4.
Dfx escribió:Que yo sepa el chipset 10xx, es am3+, a no ser que quieran sacarse de la manga algo tipo am3++, si hablásemos de am4, significaría que piledriver no seria compatible con am3+, lo que contradice lo que ha estado diciendo amd todo este tiempo.

Yo opto por am3+ con soporte pcie 3.0 y como mucho DDR4.


yo creo que de ddr4 nai nai xd
entonces para el 27 tendremos las cpus basadas en piledriver para desktop no?
se supone ke si esperemos ke a ultima hora no vuelvan a retrasarse
WiiBoy escribió:
Dfx escribió:
TRASTARO escribió:Por plataforma me imagino que te refieres al zocalo AM3+ y los chipsets, ¿no? Si es eso, es de lo que he venido leyendo tienen quejas algunos usuarios y que en definitiva pasen a zocalo FM2 y el NB integrado al mismo procesador.


No creo por que estaban ya en el roadmap los chipsets 10xx, que imagino que como mucho aportaran soporte para DDR4 y pcie 3.0


la verdad es que desde hace ya mucho las placas de amd son mas chusteras que las de intel, y no entiendo porque.... deberian espabilar mas con el tema de los chipset de placa

Lo hacen para reducir costes en las placas bases, de todas maneras, yo tube una m4a89gtd-pro/UBS3 y era una maravilla, vamos, estaba muy contento con ella, el problema fue que no era compatible con el SLI, por todo lo demás estaba muy contento, mas aún por su precio (110 euros), la cual oceaba muchisimo mejor que la siguiente que me compré (Por el tema del SLI) la gigabyte 990fxa UD5 (210 euros) la cual me decepcionó muchisimo

Espero que estos AMD salgan bien y puedan hacer competencia real a intel, tanto por la compañia (Que lleva 2 añitos que..) como por nosotros, así intel bajará un poquito los precios

PD: He visto una noticia, no recuerdo donde (La buscaré) que habrá un modelo de CPU de estos vishera que tendrá 16 cores, no quiero pensar que van a cometer el mismo fallo que con los bulldozer

EDIT: Fallo mio, crei que eran los vishera, pero son los opteron, CPUs para servers, aqui la noticia: http://www.xataka.com/componentes-de-pc ... 16-nucleos
si en efecto es el Opteron el que sera de 8 modulos -16 nucleos- y que ya viene anunciado desde el año pasado cuando los primeros Opteron con arquitectura BullDozer.
AMD si va a seguir con esta arquitectura tiene que centrarse mas en mejorar el rendimiento por modulo, que centrarse en meter mas modulos que van a ser totalmente inútiles excepto en escenarios específicos.

Sobretodo han de trabajar en el TDP, que vaya tostadoras.... xD
WiiBoy escribió:se supone ke si esperemos ke a ultima hora no vuelvan a retrasarse

pero los de am3+ no? a ver si actualizo el pc :D
Dfx escribió:AMD si va a seguir con esta arquitectura tiene que centrarse mas en mejorar el rendimiento por modulo, que centrarse en meter mas modulos que van a ser totalmente inútiles excepto en escenarios específicos.

Sobretodo han de trabajar en el TDP, que vaya tostadoras.... xD


En servidores el Opteron si esta siendo muy competitivo y ahi es donde se requiere de mas nucleos por el tema de virtualizaciones y alto paralelismo en el software usado.

En el terreno casero AMD esta trabajando en mejorar el IPC o rendimiento por ciclo de reloj junto con el TDP, mas en el consumo electrico y calor generado para volver a dominar por PRECIO/RENDIMIENTO como lo hizo alguna vez.

Estos vishera con los modulos Piledriver+ [arquitectura BD revision 2] estan destinados en mejorar el gasto electrico y pulir el IPC dandole un empujon, mientras los futuros nucleos SteamRoller [arquitectura BD revision 3] estan enfocados en aumentar el IPC global de manera mas significativa de tareas monohilo como mejorar la escalibilidad [multihilo] sin requerir grandes frecuencias ni demasiados modulos/nucleos.

http://www.chw.net/2012/08/la-nueva-mic ... eamroller/

David Sarmiento Portocarrero escribió:
[..]
Pero si bien la micro-arquitectura Bulldozer es innovadora, trajo consigo un efecto que no fue del agrado de muchos usuarios: una disminución del rendimiento por ciclo en comparación con la anterior micro-arquitectura K10.5 usada en los microprocesadores Phenom II. Este menor rendimiento por ciclo fue compensado por una mayor frecuencia de funcionamiento, y el mayor poder de multiprocesamiento del chip, una concesión de rendimiento por ciclo un poco inferior del núcleo (Bulldozer vs K10.5 a la misma frecuencia) a cambio de un mayor número de ellos (hasta 8 núcleos en Bulldozer y hasta 6 en K10.5).

AMD mejoró esta situación con su actual micro-arquitectura Piledriver, la cual ofrece un rendimiento por ciclo 15% superior a Bulldozer, e incorpora mejoras enfocadas a reducir su consumo energético como RCM (Resonant Clock Mesh), la cual le permite ofrecer frecuencias incluso más altas que las del microprocesador AMD FX-8150 (3.6GHz base y 4.2GHz en modo Turbo), pues el nuevo CPU AMD FX-8350 “Vishera” funcionará a una frecuencia base de 4GHz y a 4.2GHz en el modo Turbo (la mitad de sus núcleos activos).

Aún faltan algunos pocos meses para que Vishera (basado en la micro-arquitectura Piledriver) haga su aparición, y aunque AMD se encuentra preparando su lanzamiento, alista también su futura micro-arquitectura Steamroller, [..]

La micro-arquitectura Steamroller

La micro-arquitectura modular de tercera generación Steamroller de AMD, promete incrementar el rendimiento en todas sus áreas, a la vez que se enfoca en el rendimiento por watt. Para ello, AMD ha optimizado de sobremanera sus módulos Steamroller, a fin de priorizar su rendimiento por ciclo, introduciendo muchas mejoras enfocadas a explotar de mejor forma todas sus capacidades.


http://www.anandtech.com/show/6201/amd- ... chitecture
http://www.tomshardware.com/news/AMD-St ... 17217.html
http://www.bit-tech.net/news/hardware/2 ... amroller/1
En el terreno casero AMD esta trabajando en mejorar el IPC o rendimiento por ciclo de reloj junto con el TDP, mas en el consumo electrico y calor generado para volver a dominar por PRECIO/RENDIMIENTO como lo hizo alguna vez.


¿Acaso ahora no lo hace?.
Intel i5 176€
AMD a8-3870K 114€

Teniendo en cuenta que el Intel lleva una GPU chustera...vale la HD4000 ha mejorado mucho a la pedorra 3000, pero sigue palideciendo comparado con la AMD correspondiente en un procesador incluso más económico (casi nada, de 176€ a 114€).

Vale que en potencia CPU el Intel es más rápido, pero entre otras cosas pq AMD no implementa el "multi-hilo por núcleo" (Hyper Threading vamos), y esto es así pq para ello se requieren duplicaciones de registros y blablabla que encarece la CPU.
AMD está optando por otra vía, en lugar de machacar y embrutecer más y más la parte de CPU, mejor integrar un componente GPU mejor, ya que para las tareas más pesadas como son las de procesamiento de grandes cantidades de datos en paralelo (multimedia, des/compresión, renderizado) que es lo que más ha lastrado de siempre, pues la GPU tira mucho más, pq para hacer un cálculo en una hoja de cálculo no creo que ninguna CPU desde hace siglos tenga muchos problemas la verdad. Si incluso en los juegos un buen elemento como es la física ya se quiere hacer por GPU, otra cosa es que sólo funcione con una API específica y en GPUs de Nvidia pero como siempre eso es responsabilidad de los programadores.

Por aclarar, esoty hablando de trasladar las funciones que más machacan a la CPU a unidades mucho más eficientes como es el procesamiento GPGPU, quien no lo haya probado aún le recomiendo bajarse algunas demos del OpenCL SDK de Nvidia, es espectacular la diferencia, y para que no haya dudas sobre de que están preparadas para eso, lo que se ofrece es el código fuente, así que si hubiera algo raro (ralentizar aposta en caso de usar CPU) pues se habría detectado.

Puesto que la GPU de AMD es superior a la Intel, significa que en el momento en que las cosas se hagan como se debe (usar OpenCL), el AMD va a correr más, y por menos precio.

Para los que esten pensando en que al Intel se le acompaña con una GPU discreta (tarjeta gráfica), recuerdo que al AMD tb se le puede acompañar, con estas ventajas:

1) En modo ahorro de energía (sin usar la GPU discreta) el AMD corre más.
2) Usando la GPU discreta, AMD puede usar el Hybrid Crossfire por lo que ambas GPUs se apoyan. Yo no lo he probado pero según parece con los drivers modernos ya funciona bastante bien. Por lo que con la misma GPU (debe ser AMD claro) se tiene más potencia de GPU por estar apoyada por la integrada en la APU.

En resumen, que el Intel únicamente es más rápido como CPU pura, pero eso ya hoy en día no debería usarse así, seguramente sea culpa del monopolio de Intel que actúa sobre el desarrollo, claro ejemplo está en Adobe [buaaj] , que lejos de usar OpenCL como mandan el tipo de herramientas que ofrece, usa el compilador de Intel para sus programas.

Por dejar una comparativa desinteresada, de software libre, pues un ejemplo con el Blender compositor:
https://www.youtube.com/watch?v=sVkDx_4GP5M
djohny24 escribió:
WiiBoy escribió:
Dfx escribió:
No creo por que estaban ya en el roadmap los chipsets 10xx, que imagino que como mucho aportaran soporte para DDR4 y pcie 3.0


la verdad es que desde hace ya mucho las placas de amd son mas chusteras que las de intel, y no entiendo porque.... deberian espabilar mas con el tema de los chipset de placa


Lo que necesitan es una plataforma diseñada desde cero, como las Fm1/2 que le meten una buena tunda a las actuales am3+ en unificación, coste, tecnología y aprovechamiento de los procesadores ;)


¿En qué sentido? Que yo sepa ni FM1 ni FM2 son ni más rápidos, ni "mejores" en nada que no tenga que ver con el soporte de algún dispositivo colgado del chipset, algo que se podría hacer actualizando los chipsets de AM3+ como debieran.

Sus capacidades a memoria y el bus chipset<->cpu son con suerte equivalentes a AM3+, así que no hay ninguna razón para decir lo que dices, más allá de que una plataforma es para integrar gráficos y necesite buses extra para usar la IGP de la cpu, y la otra no.

Y por cierto, los FMx no están "diseñados de cero", están claramente basados en AMx, pero introduciendo las modificaciones necesarias para gráficos integrados y buses adjuntos a éstos, nada más.

darksch escribió:¿Acaso ahora no lo hace?.
Intel i5 176€
AMD a8-3870K 114€

Teniendo en cuenta que el Intel lleva una GPU chustera...vale la HD4000 ha mejorado mucho a la pedorra 3000, pero sigue palideciendo comparado con la AMD correspondiente en un procesador incluso más económico (casi nada, de 176€ a 114€).

Vale que en potencia CPU el Intel es más rápido, pero entre otras cosas pq AMD no implementa el "multi-hilo por núcleo" (Hyper Threading vamos), y esto es así pq para ello se requieren duplicaciones de registros y blablabla que encarece la CPU.
AMD está optando por otra vía, en lugar de machacar y embrutecer más y más la parte de CPU, mejor integrar un componente GPU mejor, ya que para las tareas más pesadas como son las de procesamiento de grandes cantidades de datos en paralelo (multimedia, des/compresión, renderizado) que es lo que más ha lastrado de siempre, pues la GPU tira mucho más, pq para hacer un cálculo en una hoja de cálculo no creo que ninguna CPU desde hace siglos tenga muchos problemas la verdad. Si incluso en los juegos un buen elemento como es la física ya se quiere hacer por GPU, otra cosa es que sólo funcione con una API específica y en GPUs de Nvidia pero como siempre eso es responsabilidad de los programadores.


A mí me hace un tanto gracia que cuando se habla de las gráficas de intel siempre se usa este tipo de lenguaje de "GPU chustera", "pedorra", cuando resulta que la tan alabada IGP integrada en las APUs en el mejor de los casos (porque no hay que olvidar que AMD vende versiones MUY recortadas) les saca un 40% de rendimiento a la versión equivalente de intel. Y eso cuando se lo saca, que ni de lejos es en la mayoría de casos.

También me hace gracia que al evaluar el tema del rendimiento de una cpu, que es de lo que estás hablando, no de gpus ni igps, que lo que compras principalmente es eso, una cpu, hables de hiperthreading para justificar la grandísima diferencia de rendimiento (bien por encima de ese 40% citado anteriormente si usas algo cpu intensivo, por cierto) cuando justo el i5 que mencionas NO lo usa.

Que sea el coste de implementar HT en una cpu la "razón" de no incluirlo y demás blablablas también tiene gracia, ya que representa menos del 5% del chip (y el i5 lo tiene, pero deshabilitado, mira qué problema de costes), y si AMD no tiene problema en gastar la mitad sino más de su cpu en IGP, gastar esa miseria en esa tecnología es de todo menos "caro". Si no lo implementa es porque no quiere o no sabe, punto. Más transistores ha gastado en otras "características" bastante menos útiles.

Después sigues con el panfleto de publicidad con tintes de ignorancia insistiendo en usar ese lenguaje colorista, con cosas como "embrutecer" y demás para lo que es diseñar MEJORES cpus, soltando el panfleto-mantra de "la GPU es la salvación de las cpus", una auténtica tontería a estas alturas porque se lleva con la misma cantinela y moda desde hace muco tiempo, y no ha habido NI HABRA una adopción masiva de GPGPU en todo tipo de programas, por mucho que sea "machacar datos", porque entre otras hay casos donde por dependencia entre datos y tipo de código las GPUS NO pueden trabajar eficientemente, y porque a nivel de desarrollo es una rotura de huevos implementar algunas características en GPU.

Y sé de lo que hablo, estos temas de usar GPUs para acelerar cálculos no es de ahora, ya se empezaba a intentar usar desde los 90, y a pesar de que se avance, sería de ilusos el creerse los trípticos de AMD que pareces haber cogido, ya que has dicho todos y cada uno de los mantras absurdos manejados por la casa, o por sus fans.

Ah!, también tiene su puntillo gracioso el ver cómo desprecias o acusas de "vendida" a intel a empresas como Adobe, que viven precisamente (y muy bien, por cierto, la fama que tienen en cierto sector no la ganaron en dos días) de VENDER soft.

No de amañar pruebas, como tú dices. Y sí, el uso del compilador de intel tiene mucho sentido, si quieres vectorizado automático y eficiente, y desenrollamiento de bucles y otras "naderías", hay que usar compiladores como éste. De "interesados", nada. Excepto en obtener el máximo rendimiento.

Si tan claras ves el portado a GPGPU masivo de todas sus aplicaciones, te invitaría a que dadas tus habilidades extremas como programador (según tú debe estar chupado, y es trivial y se puede usar en todo tipo de soft de "machacar datos"), a que hagas versiones alternativas de su soft pero usando sólo OpenCL, por ejemplo (y añado, ¿sabes que puedes usar el compilador de intel y OpenCL simultaneamente? de hecho, ¿sabes que de todas formas vas a tener que usar SI o SI un compilador a x86 en el soft que crees, por mucho OpenCL que introduzcas, ein? [looco] ).

Estás perdiendo de ganar mucha pasta, yo no perdería este tren viendo lo claro que lo tienes todo, ¡¡a "portar" a OpenCL todo ese soft!! (juass juass).

PD: Nota o pista para que pienses un poco sobre la vericidad de lo que hablas:

¿Sabías que AMD gasta tantos o más transistores/superficie de die que intel por cada core que implementa en sus arquitecturas Phenom II o Bulldozer que intel con sus Nehalem/sandy/Ivy? ¿Dónde están entonces esa "reutilización inteligente" de recursos, quién "embrutece" sus cpus?

¿El que con similar conteo de transistores hace diseños más rápidos, o el que hace lo contrario?

Pues mira que no se levantó escandalera ni nada por la cifra oficial de transistores de los Bulldozer, que aún corregida para nada se coloca por debajo de los diseños de intel. Por favor, deja los mantras proAMD para foros totalmente proAMD, aquí puede producir alguna que otra carcajada.

----------------

Por cierto, ahora que ha salido información sobre las mejoras de Steamroller, me llena de "orgullo y satisfacción" ir viendo cómo el tiempo va dejando las cosas en su sitio. Para los que me conozcan sabrán que yo avisé con unos dos años de antelación, cuando salieron los primeros bocetos y esquemas de Bulldozer, que su arquitectura estaba enormemente mal balanceada y lastrada, entre otras cosas que comenté extensamente, por un diseño donde se compartían las unidades de decodificación entre dos cores del mismo módulo.

Pues bien, una de las "enmendatas" de AMD en Steamroller es justo esta, hacer que cada core tenga sus propios decoders en exclusiva (entiende que también 4, aunque podrían reducir el número, algo que no tengo claro, posiblemente a 3 sin menoscabo), lo cual evita el problema tan acusado de pérdida de rendimiento de los Bulldozer cuando en un mismo módulo se ejecutan 2 hilos o procesos. Este detalle es un añadido extra que me ha acabado dando la razón, más allá de lo visto en el propio lanzamiento de Bulldozer.
A mí me hace un tanto gracia que cuando se habla de las gráficas de intel siempre se usa este tipo de lenguaje de "GPU chustera", "pedorra", cuando resulta que la tan alabada IGP integrada en las APUs en el mejor de los casos (porque no hay que olvidar que AMD vende versiones MUY recortadas) les saca un 40% de rendimiento a la versión equivalente de intel. Y eso cuando se lo saca, que ni de lejos es en la mayoría de casos.

Si tú lo dices...http://www.tomshardware.com/reviews/a10-4600m-trinity-piledriver,3202-7.html
Por lo visto nunca les han sacado ni un 40% ni por milagro divino.

También me hace gracia que al evaluar el tema del rendimiento de una cpu, que es de lo que estás hablando, no de gpus ni igps, que lo que compras principalmente es eso, una cpu, hables de hiperthreading para justificar la grandísima diferencia de rendimiento (bien por encima de ese 40% citado anteriormente si usas algo cpu intensivo, por cierto) cuando justo el i5 que mencionas NO lo usa.

Que sea el coste de implementar HT en una cpu la "razón" de no incluirlo y demás blablablas también tiene gracia, ya que representa menos del 5% del chip (y el i5 lo tiene, pero deshabilitado, mira qué problema de costes), y si AMD no tiene problema en gastar la mitad sino más de su cpu en IGP, gastar esa miseria en esa tecnología es de todo menos "caro". Si no lo implementa es porque no quiere o no sabe, punto. Más transistores ha gastado en otras "características" bastante menos útiles.

Una CPU es una CPU, para TODO lo que pueda valer, ¡ah espera!, es que para ser CPU debe ser así, así y así, y todo lo que no sea eso ya no es CPU. No, una CPU es un centro de procesamiento y punto, y cada cual lo hará como quiera y según las necesidades le dotará de unas u otras unidades de procesamiento. Por esa regla de 3, cuando a las CPUs se les introdujo SIMD, ¡eso ya no es una CPU!, ¿dónde están los EAX, EBX, ECX y EDX?, quita quita con cosas raras.

Por cierto, exacto, no lo implemente pq exacgtamente como dije, eso conlleva un coste, no sólo de montaje, sino de investigación, ahora en AMD chasquean los dedos y venga ya saben implementarlo. El dinero que Intel se gastó en desarrollar e ir mejorando esa tecnología pues AMD se lo gasta en otras cosas, no tiene vuelta de hoja.

Hyper threading no es la única forma de mejorar la CPU, evidentemente, pero para eso remitirse al párrafo anterior (resumo, cada una se gasta el dinero para investigar en cosas distintas).

Después sigues con el panfleto de publicidad con tintes de ignorancia insistiendo en usar ese lenguaje colorista, con cosas como "embrutecer" y demás para lo que es diseñar MEJORES cpus, soltando el panfleto-mantra de "la GPU es la salvación de las cpus", una auténtica tontería a estas alturas porque se lleva con la misma cantinela y moda desde hace muco tiempo, y no ha habido NI HABRA una adopción masiva de GPGPU en todo tipo de programas, por mucho que sea "machacar datos", porque entre otras hay casos donde por dependencia entre datos y tipo de código las GPUS NO pueden trabajar eficientemente, y porque a nivel de desarrollo es una rotura de huevos implementar algunas características en GPU.

Hay algo que se llama evolución, igual que se pasó de pura CPU a tener que programar GPUs para el renderizado, o se pasó del monohilo al multihilo.

Es lo que he dicho, la idea es acelerar las tareas que más machacan a una CPU, es decir, ¿es necesario seguir acelerando tareas que cuando empiezan no da tiempo ni a pestañear y están acabadas?, yo creo que no, lo que hay que acelerar es aquello que le das a empezar y te puedes ir y esperar a que termine. Claro que hay tareas que una GPU nunca podrá hacer, al igual que hay otras que una CPU NO debería hacer, como el tratamiento de píxeles (ya lo veremos más adelante) ya que por "software" es algo muy lento, hace años eso se aprendió a nivel de render en tiempo real (por algo salieron las aceleradoras gráficas), pues ya va siendo hora de ampliarlo a tratamiento de imágenes y video, me parece a mí.
Por cierto la idea de "embrutecer", es la de que se han gastado el pastizal en mejorar una CPU ya muy potente de por sí, no sé en que estarías pensando.

Y sé de lo que hablo, estos temas de usar GPUs para acelerar cálculos no es de ahora, ya se empezaba a intentar usar desde los 90, y a pesar de que se avance, sería de ilusos el creerse los trípticos de AMD que pareces haber cogido, ya que has dicho todos y cada uno de los mantras absurdos manejados por la casa, o por sus fans.

Ah!, también tiene su puntillo gracioso el ver cómo desprecias o acusas de "vendida" a intel a empresas como Adobe, que viven precisamente (y muy bien, por cierto, la fama que tienen en cierto sector no la ganaron en dos días) de VENDER soft.

No de amañar pruebas, como tú dices. Y sí, el uso del compilador de intel tiene mucho sentido, si quieres vectorizado automático y eficiente, y desenrollamiento de bucles y otras "naderías", hay que usar compiladores como éste. De "interesados", nada. Excepto en obtener el máximo rendimiento.

Si tan claras ves el portado a GPGPU masivo de todas sus aplicaciones, te invitaría a que dadas tus habilidades extremas como programador (según tú debe estar chupado, y es trivial y se puede usar en todo tipo de soft de "machacar datos"), a que hagas versiones alternativas de su soft pero usando sólo OpenCL, por ejemplo (y añado, ¿sabes que puedes usar el compilador de intel y OpenCL simultaneamente? de hecho, ¿sabes que de todas formas vas a tener que usar SI o SI un compilador a x86 en el soft que crees, por mucho OpenCL que introduzcas, ein? [looco] ).

Te lo voy a resumir con un enlace:
http://www.tomshardware.com/reviews/photoshop-cs6-gimp-aftershot-pro,3208-10.html
¡¡¡Oh, la CPU Intel w/o OpenCL va al DOBLE que la AMD!!!, de 0,30 a 0,60...ah pero espera, que cuando pones OpenCL el AMD se va a más de 5.
O voy a ver video en 1080p, que tengo al MacBook que se pilla unos calentones de cuidado y los ventiladores que van a reventar por tener que tirar de CPU, mientras el PC portátil (un Intel con Nvidia por cierto) el ventilador ni se nota y ni se calienta.
Tienes razón, mejor seguir gastando todo el dinero de investigación en mejorar la CPU (mejor no digo embrutecer que puedes entrar en cólera) que tarde o temprano llegará a esas cifras en tratamiento de píxeles. ¡Eso sí, cuando hago el cálculo de las mensualidades de la hipoteca, en el Intel obtengo el resultado 1 décima de segundo antes!, con lo que me ahorro de tiempo.

A eso añade Blender que ya está casi a punto (si no es que ya terminaron el motor bajo OpenCL) y algún codec, por cierto comercial, como este. Si software libre lo hace...
Además, si tú mismo lo has dicho, ¿pq entonces Adobe no lo hace?, lo de usar ambos digo. Además no es un compilador x86 salvo que sea para 32-bit, pero bueno sé a lo que te refieres.

Lo de la falta de uso de OpenCL en software comercial tiene su explicación de la misma forma que cuesta mucho encontrar un Dell o HP con CPU AMD, Intel tiene mucha pasta y ejerce suficiente "influencia" para ello. No es nada nuevo, se sabe de juegos que están completos en ciertas plataformas consoleras que no llegan a ver la luz por "persuasiones" de la marca que se queda con la exclusiva del juego. Eso es así y seguirá siendo.

Ya que mencionas sobre programación, pues sí, le he hechado un vistazo a OpenCL y, por lo menos para mí, la dificultad es equivalente más o menos a la que fue el paso del monohilo al full-multihilo, es decir, no crear X hilos fijos, si no adaptar el programa a detectar los X núcleos de la máquina y adaptarse a ello. Y lo sé de 1ª mano pq he programado eso. Si bien es cierto que al principio puede resultar "raro" la programación tipo GPGPU, tb es cierto que las APIs hacen que el programador se olvide de la sincronización, cosa que no ocurre con el multihilo (que es lo difícil), lo que lo simplifica algo, y por eso digo que a mí por lo menos me parece del mismo nivel de dificultad dicho cambio.

Lo que yo creo es que tienes un concepto de CPU muy muy anticuado, las cosas cambian, de hecho la mayoría de las CPUs vendidas en la actualidad son integradas (tablets, móviles, y otros dispositivos en general). Ese concepto de sacar la pastilla de su caja, colocarla en el socket, y que sólo se dedique a "tareas típicas de CPU" llámemoslas es ya un poco deprecated.

Son 2 vías de desarrollo diferentes, haciendo analogía de balance Intel opta por un 70/30 en mejorar la parte de CPU/GPU y AMD 30/70. A mí personalmente me gusta más la de AMD pq como dije es hacia lo que está tendiendo la tecnología y pq desbloquea lo que ahora mismo son los mayores cuellos de botella de procesamiento, el problema es que ahora mismo la gente simplemente ve que en los benchmarks de CPU el Intel corre más, pero corre el riesgo de que llegado el punto le pille con los pantalones bajados sin una parte de GPU competente si se decide por fin que es la vía de hacer software.
Hay tareas que nunca podrán usar GPU que son compilar, bases de datos, y cálculos matemáticos generales, sin embargo el público demanda cosas que sí puede hacer como son imágenes, video, render en tiempo real.

Al final todo queda en la proporción precio/prestaciones, y en eso AMD ahora mismo según veo es mejor, vaya que estamos comparando 114€ con 176€, son 62€ de diferencia pero sobre 114€ no sobre 300€.
De todas maneras la apu en los test le saca bastante distancia contando en la diferencia de precio y tambien hay que tener en cuenta como se han hecho los test, ya que las APU necesitan de memoria a altas velocidades para dar un rendimiento mas elevado (1866 o mas), por otro lado a la integrada de intel le tienes que añadir una dedicada y a la apu le puedes hacer un crossfire para ganar bastante potencia y todavia no has llegado al precio de la solución de intel.

En este terreno yo creo que las APU para determinadas maquinas no tienen competencia, al igual que intel en el sector de gama media o alta tampoco la tiene prácticamente.

Yo creo que en esta generacion AMD dentro de sus errores ha corregido el camino rápidamente, un bulldozer o piledriver de gama alta podria haber sido un fiasco total, 10? 12? 16 nucleos? al usuario medio que se dedica a jugar, no le hubiese afectado para nada, mejor dejar aparcado el tema de la cantidad de cores hasta que realmente sean útiles y mejorar el rendimiento individual, 8 (en el caso que podamos llamarlos cores completos) ya es un buen numero y no creo que sea necesario mas hasta que las aplicaciones sepan aprovecharlo.
darksch escribió:
A mí me hace un tanto gracia que cuando se habla de las gráficas de intel siempre se usa este tipo de lenguaje de "GPU chustera", "pedorra", cuando resulta que la tan alabada IGP integrada en las APUs en el mejor de los casos (porque no hay que olvidar que AMD vende versiones MUY recortadas) les saca un 40% de rendimiento a la versión equivalente de intel. Y eso cuando se lo saca, que ni de lejos es en la mayoría de casos.

Si tú lo dices...http://www.tomshardware.com/reviews/a10-4600m-trinity-piledriver,3202-7.html
Por lo visto nunca les han sacado ni un 40% ni por milagro divino.


no, por lo visto desde luego que no, que no te has enterado de la misa, están comparando, un HD3000 vs Trinity y Llano. Oh sí, justo eso, la novedad de AMD contra la arquitectura gráfica vieja de intel, que supongo que aún no habría salido para portátil cuando hicieron el análisis (sí para escritorio). ¿?

También me hace gracia que al evaluar el tema del rendimiento de una cpu, que es de lo que estás hablando, no de gpus ni igps, que lo que compras principalmente es eso, una cpu, hables de hiperthreading para justificar la grandísima diferencia de rendimiento (bien por encima de ese 40% citado anteriormente si usas algo cpu intensivo, por cierto) cuando justo el i5 que mencionas NO lo usa.

Que sea el coste de implementar HT en una cpu la "razón" de no incluirlo y demás blablablas también tiene gracia, ya que representa menos del 5% del chip (y el i5 lo tiene, pero deshabilitado, mira qué problema de costes), y si AMD no tiene problema en gastar la mitad sino más de su cpu en IGP, gastar esa miseria en esa tecnología es de todo menos "caro". Si no lo implementa es porque no quiere o no sabe, punto. Más transistores ha gastado en otras "características" bastante menos útiles.

Una CPU es una CPU, para TODO lo que pueda valer, ¡ah espera!, es que para ser CPU debe ser así, así y así, y todo lo que no sea eso ya no es CPU. No, una CPU es un centro de procesamiento y punto, y cada cual lo hará como quiera y según las necesidades le dotará de unas u otras unidades de procesamiento. Por esa regla de 3, cuando a las CPUs se les introdujo SIMD, ¡eso ya no es una CPU!, ¿dónde están los EAX, EBX, ECX y EDX?, quita quita con cosas raras.



No no no, pero di las cosas bien hombre. Para tí una cpu es de todo menos una cpu, si quieres te explico lo que significan las siglas si tal, que parece que no las tienes claras (no es un centro de procesamiento, es una UNIDAD DE PROCESO CENTRAL, que es algo muy distinto, lo primero lo puede ser cualquier tipo de coprocesador o unidad de cómputo que se añada de alguna forma a un sistema, lo segundo sólo puede ser el eje sobre el que se ejecuta el soft del sistema y el de usuario, vamos, "lo mismo").

Porque me cites unos pocos registros arquitectónicos de x86 no te creas que dejará de lucirte el pelo, y te lo digo por esa burrada que has pintado aquí mismo, pintando como "equivalentes" mejoras arquitectónicas DENTRO de una cpu con el uso de GPGPU, válgame dios, poner ambas cosas al mismo nivel es lo que me faltaba por ver... XD

Oyes, cuando seas capaz de mezclar el código usado en GPGPU por el medio de código nativo x86 y que la cpu automáticamente lo gestione, vienes y me vuelves a hacer el mismo símil, hasta entonces, NO.

Por cierto, exacto, no lo implemente pq exacgtamente como dije, eso conlleva un coste, no sólo de montaje, sino de investigación, ahora en AMD chasquean los dedos y venga ya saben implementarlo. El dinero que Intel se gastó en desarrollar e ir mejorando esa tecnología pues AMD se lo gasta en otras cosas, no tiene vuelta de hoja.



¿Y a mí qué me cuentas de coste de I+D? Tú dijiste que era "caro" implementarlo en la cpu, desde luego nada de desarrollarlo (que yo sepa, es "caro" toda técnica implementada, incluida esas AVX anímicas que lleva bulldozer ¬¬), te aviso porque veo que no debes saberlo, que técnicas de SMT en cpus se usan a lo largo y ancho de la industria precisamente como forma "fácil" de mejorar el rendimiento y altamente rentable incluido desde los "monstruosos costes" de I+D ¬¬. Si AMD no se ve capaz será porque se dedica a hacer arquitecturas fallidas en vez de hacer algo serio.

En vez de millones en chorradas como "fusión-optimización" de recursos que se le acaban disparando al pie, si se dedicara a ampliar sus arquitecturas como debe ser, no estaría en el pozo sin fondo donde está ahora, donde se ha metido sóla, añado.

Hyper threading no es la única forma de mejorar la CPU, evidentemente, pero para eso remitirse al párrafo anterior (resumo, cada una se gasta el dinero para investigar en cosas distintas).

Después sigues con el panfleto de publicidad con tintes de ignorancia insistiendo en usar ese lenguaje colorista, con cosas como "embrutecer" y demás para lo que es diseñar MEJORES cpus, soltando el panfleto-mantra de "la GPU es la salvación de las cpus", una auténtica tontería a estas alturas porque se lleva con la misma cantinela y moda desde hace muco tiempo, y no ha habido NI HABRA una adopción masiva de GPGPU en todo tipo de programas, por mucho que sea "machacar datos", porque entre otras hay casos donde por dependencia entre datos y tipo de código las GPUS NO pueden trabajar eficientemente, y porque a nivel de desarrollo es una rotura de huevos implementar algunas características en GPU.

Hay algo que se llama evolución, igual que se pasó de pura CPU a tener que programar GPUs para el renderizado, o se pasó del monohilo al multihilo.


Las GPUs siguen sin usarse mayormente en renderizado, si te refieres al rasterizado usado en 3D en tiempo real, es otro cantar. Y el multihilo, otra técnica más vieja que Pichote, lleva con nosotros desde varias décadas, y el estado actual de esta técnica sigue siendo menos que mayoritario, mayormente por la dificultad de implementación y que no siempre es beneficiosa para el rendimiento, y sí, incluso en alguna tarea de cpu intensiva. [Alaa!]

Cosa similar a lo que pasa con GPGPU, pero a otra escala totalmente distinta de dificultad de implementación, y aún así mucho soft sigue sin ser multihilo.

Es lo que he dicho, la idea es acelerar las tareas que más machacan a una CPU, es decir, ¿es necesario seguir acelerando tareas que cuando empiezan no da tiempo ni a pestañear y están acabadas?, yo creo que no, lo que hay que acelerar es aquello que le das a empezar y te puedes ir y esperar a que termine. Claro que hay tareas que una GPU nunca podrá hacer, al igual que hay otras que una CPU NO debería hacer, como el tratamiento de píxeles (ya lo veremos más adelante) ya que por "software" es algo muy lento, hace años eso se aprendió a nivel de render en tiempo real (por algo salieron las aceleradoras gráficas), pues ya va siendo hora de ampliarlo a tratamiento de imágenes y video, me parece a mí.
Por cierto la idea de "embrutecer", es la de que se han gastado el pastizal en mejorar una CPU ya muy potente de por sí, no sé en que estarías pensando.


Si quieres te pongo lo que significa "embrutecer" en el diccionario de la RAE, a ver más bien es en qué estarías pensando tú (yo el castellano bien, gracias). El pastizal que tú dices está más que bien invertido (parece que AMD no gasta pastizal alguno en "optimizar" sus arquitecturas, debe tener un montón de duendecillos verdes esclavizados, pero a intel sí que le cuesta, pobre, poobree intel que gasta tanto dinero sin control).

Todo lo que has dicho antes es un disparate (hablas como si no hubiera necesidad alguna de aumentar la velocidad de las cpus), podría ponerte ejemplos y desarrollarlo, pero como te veo bastante pez y no tengo ganas de liarme, te dejo pistas, pero todo no una, sino DOS:

Hojas de cálculo.
Bases de datos.

Ya ves, tipos de soft "trivial", si sabes cómo están diseñadas estas aplicaciones, y sobre todo sus estructuras de datos, quizás entenderías el porqué te las menciono. Si sabes porqué te las menciono, puedes explayarte y darme una linda sorpresa (sí, te lo estoy poniendo como reto). Y no, para los que trabajan en serio con este tipo de soft, y sobre todo las BBDD, no son cosas de "pestañeos", ni de lejos lo que tardan. Y las GPGPUs son básicamente inútiles.

Y sé de lo que hablo, estos temas de usar GPUs para acelerar cálculos no es de ahora, ya se empezaba a intentar usar desde los 90, y a pesar de que se avance, sería de ilusos el creerse los trípticos de AMD que pareces haber cogido, ya que has dicho todos y cada uno de los mantras absurdos manejados por la casa, o por sus fans.

Ah!, también tiene su puntillo gracioso el ver cómo desprecias o acusas de "vendida" a intel a empresas como Adobe, que viven precisamente (y muy bien, por cierto, la fama que tienen en cierto sector no la ganaron en dos días) de VENDER soft.

No de amañar pruebas, como tú dices. Y sí, el uso del compilador de intel tiene mucho sentido, si quieres vectorizado automático y eficiente, y desenrollamiento de bucles y otras "naderías", hay que usar compiladores como éste. De "interesados", nada. Excepto en obtener el máximo rendimiento.

Si tan claras ves el portado a GPGPU masivo de todas sus aplicaciones, te invitaría a que dadas tus habilidades extremas como programador (según tú debe estar chupado, y es trivial y se puede usar en todo tipo de soft de "machacar datos"), a que hagas versiones alternativas de su soft pero usando sólo OpenCL, por ejemplo (y añado, ¿sabes que puedes usar el compilador de intel y OpenCL simultaneamente? de hecho, ¿sabes que de todas formas vas a tener que usar SI o SI un compilador a x86 en el soft que crees, por mucho OpenCL que introduzcas, ein? [looco] ).

Te lo voy a resumir con un enlace:
http://www.tomshardware.com/reviews/photoshop-cs6-gimp-aftershot-pro,3208-10.html
¡¡¡Oh, la CPU Intel w/o OpenCL va al DOBLE que la AMD!!!, de 0,30 a 0,60...ah pero espera, que cuando pones OpenCL el AMD se va a más de 5.
O voy a ver video en 1080p, que tengo al MacBook que se pilla unos calentones de cuidado y los ventiladores que van a reventar por tener que tirar de CPU, mientras el PC portátil (un Intel con Nvidia por cierto) el ventilador ni se nota y ni se calienta.
Tienes razón, mejor seguir gastando todo el dinero de investigación en mejorar la CPU (mejor no digo embrutecer que puedes entrar en cólera) que tarde o temprano llegará a esas cifras en tratamiento de píxeles. ¡Eso sí, cuando hago el cálculo de las mensualidades de la hipoteca, en el Intel obtengo el resultado 1 décima de segundo antes!, con lo que me ahorro de tiempo.

A eso añade Blender que ya está casi a punto (si no es que ya terminaron el motor bajo OpenCL) y algún codec, por cierto comercial, como este. Si software libre lo hace...
Además, si tú mismo lo has dicho, ¿pq entonces Adobe no lo hace?, lo de usar ambos digo. Además no es un compilador x86 salvo que sea para 32-bit, pero bueno sé a lo que te refieres.

Lo de la falta de uso de OpenCL en software comercial tiene su explicación de la misma forma que cuesta mucho encontrar un Dell o HP con CPU AMD, Intel tiene mucha pasta y ejerce suficiente "influencia" para ello. No es nada nuevo, se sabe de juegos que están completos en ciertas plataformas consoleras que no llegan a ver la luz por "persuasiones" de la marca que se queda con la exclusiva del juego. Eso es así y seguirá siendo.

Ya que mencionas sobre programación, pues sí, le he hechado un vistazo a OpenCL y, por lo menos para mí, la dificultad es equivalente más o menos a la que fue el paso del monohilo al full-multihilo, es decir, no crear X hilos fijos, si no adaptar el programa a detectar los X núcleos de la máquina y adaptarse a ello. Y lo sé de 1ª mano pq he programado eso. Si bien es cierto que al principio puede resultar "raro" la programación tipo GPGPU, tb es cierto que las APIs hacen que el programador se olvide de la sincronización, cosa que no ocurre con el multihilo (que es lo difícil), lo que lo simplifica algo, y por eso digo que a mí por lo menos me parece del mismo nivel de dificultad dicho cambio.

Lo que yo creo es que tienes un concepto de CPU muy muy anticuado, las cosas cambian, de hecho la mayoría de las CPUs vendidas en la actualidad son integradas (tablets, móviles, y otros dispositivos en general). Ese concepto de sacar la pastilla de su caja, colocarla en el socket, y que sólo se dedique a "tareas típicas de CPU" llámemoslas es ya un poco deprecated.

Son 2 vías de desarrollo diferentes, haciendo analogía de balance Intel opta por un 70/30 en mejorar la parte de CPU/GPU y AMD 30/70. A mí personalmente me gusta más la de AMD pq como dije es hacia lo que está tendiendo la tecnología y pq desbloquea lo que ahora mismo son los mayores cuellos de botella de procesamiento, el problema es que ahora mismo la gente simplemente ve que en los benchmarks de CPU el Intel corre más, pero corre el riesgo de que llegado el punto le pille con los pantalones bajados sin una parte de GPU competente si se decide por fin que es la vía de hacer software.
Hay tareas que nunca podrán usar GPU que son compilar, bases de datos, y cálculos matemáticos generales, sin embargo el público demanda cosas que sí puede hacer como son imágenes, video, render en tiempo real.

Al final todo queda en la proporción precio/prestaciones, y en eso AMD ahora mismo según veo es mejor, vaya que estamos comparando 114€ con 176€, son 62€ de diferencia pero sobre 114€ no sobre 300€.

Sigue siendo muy divertido leerte, porque insistes una y otra vez en decir que GPGPU es la "senda" para mejorar el rendimiento "pesado" en cualquier tarea, cuando esto no es así. También tiene gracia leer tu teoría de la conspiración, un tanto absurda, sobre que el soft comercial no usa OpenCL porque intel tiene "dinero" con qué pagar. Lo cual me reafirma en que o no tienes ni idea de programación avanzada, o te estás haciendo el sueco con los clarísimos problemas de desarrollo en GPGPU que... vamos, no se las salta ni un galgo. No todo es hacer sumas de supermatrices.

Una empresa desarrolladora de productos comerciales, juegos, productos ofimáticos, contables, o lo que tú quieras gana y justifica su contabilidad, y a sus accionistas a través de los beneficios que obtiene con sus ventas. Lo que tú estás soltando es, además de un disparate, imposible.

Porque intel que según tú es una fuente de dinero infinita, tendría que estar "untando" a todas las empresas desarrolladoras del mundo mundial para evitar que usen OpenCL en sus programas y así evitar que un "outsider" saque ese tan mágico soft que tú mencionas y así destruyera a la competencia totalmente, lo cual destruiría su plan maléfico de dominación del mundo del desarrollo (juaaajuaajuaaa!! intel: "soy maaalaaa!").

Y la untada a cada una de las empresas tendría que ser proporcionalmente muy importante respecto a sus ventas como para renunciar a los posibles beneficios que tú ves en el uso de OpenCL.

Dices que has programado en OpenCL y en multihilo (jajajaa, venga hombre, y dices que son equivalentes además en dificultadXD), bien, excepto que te hayas limitado a hacer poco más que proceso de matrices a piñón fijo en ambos casos, deberías saber de sobra que ambos tipos de programación tienen niveles de dificultad muy distintos, y si sabes por tanto, algo de estructuras de datos complejas, yo que sé, por ejemplo grafos, deberías conocer que ni de lejos una GPU se adapta ni a todo tipo de estructuras, ni a todo tipo de código, ni le sienta ni remotamente bien las dependencias entre datos. Y que tiene problemas en cuanto a la gestión eficiente de cantidad de kernels a lanzar según el caso, latencias entre su trabajo y el de la cpu (que es una CAJA NEGRA respecto al código x86, no es por tanto ni de lejos equivalente a tu comparación anterior con SSE que va con el código x86 ordinario).

Tema que afecta a enooormes cantidades de programas "comerciales" de ésos que dices que intel les unta para evitar que saquen versiones OpenCL (WTF?), donde la solución óptima y eficiente es NO usar GPGPU.

De la misma forma que mucho soft NO se beneficio de la programación multihilo, de la misma forma que mucho soft NO necesita en absoluto ni instrucciones vectoriales ni de coma flotante, por ejemplo.

Así que si de una vez admites que ambas sendas son DISTINTAS y no compatibles, y dejas de decir "GPGPU es el futuro para toda aplicación", ya sólo te queda ir repasando todos y cada uno de los casos donde crees que es beneficioso, porque muchas veces te estás equivocando.

1.- Codificación de video. Hasta día de hoy ni AMD ni nvidia, ni tampoco intel que tiene su propia tecnología propietaria dedicada al tema, quicksync, han sido capaces de codificar video con sus codecs y programas que los usan con el MISMO NIVEL DE DETALLE que la codificación de vídeo por soft. Lo cual es más grave cuando se tiene en cuenta que en dichos programas se les supone usar a todas estas distintas tecnologías de codificación mismo tipo de códec y calidades en sus parámetros, más allá de que cada marca tenga su implementación de cada códec o haya ayudado a crearla a la desarrolladora del programa.

Es un ejemplo sangrante, porque se han dedicado esfuerzos por los principales actores de GPGPU, se han creado distintos programas, y ninguno de éstos son capaces de dar justo la misma calidad en una plataforma que en otra. Lo cual señala a que existen problemas inherentes en dichos usos.

2.- Programas de retoque 2D o render 3D. Aquí puede haber mejores resultados aparentemente. Sin embargo ningún programa ha portado al 100% sus librerías de cálculo y/o proceso en dichas tareas, por la simple razón de que muchas tareas de CALCULO, no de hacer la contabilidad de la señorita pepis o guardar un archivo de datos, se tienen que hacer en la CPU. El hecho de que ningún programa de corte profesional, de los más avanzados, implementen GPGPU a un nivel masivo da unas cuantas pistas sobre la dificultad del tema. Y no, no creo que quienes ganan millones de dólares con sus programas se dejen untar y se "arriesguen" a que venga un Blender de la vida y les sustituya en su posición. Pensar eso sería un disparate, si las cosas van despacio en este tema, es por una buena razón.

3.- Multitud de programas de corte científico necesitan VARIAS versiones de sus librerías GPGPU para poder correr eficientemente en varias arquitecturas gráficas (bueno, y no sólo éstos), lo cual va directamente en contra de la "facilidad" de uso de GPGPU si es necesario hacer esto, lo más gracioso es que aún encima hay casos donde ni con ésas conseguirán extraer bien el supuesto beneficio de una arquitectura contra otra. Casos hay de nvidia-AMD y viceversa como ejes donde una se ve superada por la otra en este tipo de soft.

Añado que en no pocos casos no se implementan técnicas de GPGPU en este soft porque no se obtienen en las tareas exigidas obtener el nivel de rendimiento o fiabilidad del cálculo exigidas. Casi nada.

4.- Curiosamente, los juegos. Soft típico donde hace falta una cpu muy COMPETENTE ahí sea exigente, por la naturaleza de sus estructuras de datos y del código que lo conforma. Se puede usar rasterizado, se puede usar GPGPU para efectos concretos, pero la cpu sigue y seguirá siendo central en este tipo de tareas.

Una cpu mediocre te ASEGURO por experiencia propia no será capaz de dar el mismo rendimiento en juegos que una especialmente veloz. Y justo entre las dos cpus que has puesto, la i5 es un mundo respecto a la AMD, si montas una HD7950/GTX660 Ti (o superiores) en el segundo caso, estás tirando el dinero desaprovechando bastante potencial de la gráfica.

----

En fin, que sí, que mucho "deprecated" y lo que quieras, pero defender una cpu sólo porque tenga una IGP algo más competente (te animo a que te molestes en ver reviews de HD4000 vs Llano y Trinity, no de las dos últimas contra la pobre HD3000 de Sandy Bridge, ya sabes, de principios del año pasado), pero no mucho más, y que digas que ganas por todas partes y tal y cual, y que te ahorras un montón de dinero, ninguneando totalmente el papel de la CPU, es lo que faltaba por ver.... [sonrisa] , muy divertido, pero irreal.
Bueno veo que tienes tu idea de lo que es la tecnología y de como funciona el mundo, y esos son tus problemas, te explico.

- Según tú la tecnología es "lo que diga Intel", pues no, insistes e insistes en separar, verás la realidad es que el problema siempre ha sido la capacidad de integración, hace unos años la caché L2 tenía que estar fuera en la placa pq no había capacidad de integración suficiente, ahora está en la CPU, por tu regla la L2 no es parte de la CPU.
Te lo pongo desde otro punto de vista, tengo un P-III y quiero ejecutar código que usa SSE2, no funciona, sin embargo en un C2D sí funciona, ¿entonces el C2D no es una CPU?, extendiendo, quiero ejecutar un programa que usa código OpenCL, en el AMD A8 se me ejecuta y en el C2D no, vaya ahora resulta que como el C2D no lo ejecuta pues debe ser pq eso no es de una CPU.
Por tu defnición de CPU, ni la FPU ni la gran mayoría de lo que traen debería ir dentro, ya que para hacer de CENTRAL PROCESSOR UNIT no hace falta nada de eso, el sistema puede funcionar con lo básico y apoyarse en coprocesadores externos. No espera, es que llevando FPU hace algunas cosas mucho más rápido, vaya pues exactamente igual que si lleva unidades hardware programables paralelas (la parte GPU).

- Tu otro problema es el del software, verás hace años Advanced Gravis sacó una tecnología de sonido que se meaba en la de Creative, sin embargo no se sabe como (creo que si se sabe) muchos juegos optaban por no dar soporte a la Ultrasound, y en aquellos en los que sí se tenía, en ninguna revista se hacía eco de la inmensa mejora sonora que suponía, de hecho sólo se leía que tal sonaba en la Sound Blaster respecto a la versión Amiga y cosas así.
Dame una sola razón por la que Gears of War 2 no saliera en PC.
Ahí tienes el GIMP que lo hacen de gratis avanzando sin parar para poder llegado el día poder aplicar filtros a 5 Mpx/s mientras que los de Adobe (puedes leer un par de páginas atrás en el enlace que puse) no pone más que excusas, "no es que somos novatos en esto del OpenCL", "no es que...".
De saber cuantos transistores lleva una CPU te informas mucho pero de como funciona esto pues no mucho.

Por cierto, hay cosas que ya hace más rápido y no hace falta esperar a OpenCL, ejemplos:
- Programas 3D: el viewport usa OpenGL por lo que va mejor para la edición.
- Internet: este es un buen ejemplo, a lo mejor en el Intel el Firefox se te abre antes (si no está cacheado), pero una vez abierto, pues lo navegadores ya dibujan por hardware, y aunque Javascript sea más rápido en el Intel, la peor parte de Internet que son los gráficos (video, flash, canvas) pues irá mejor en el AMD.

- Por otro lado insistes, para bases de datos, cálculos (cosas que por cierto ya puse en el mensaje anterior), ya lo sé, para eso es mejor CPU clásica, pero es precisamente a lo que voy, según tú es mejor potenciar y potenciar, con un resultado de un coste para el usuario de 176€ la parte de CPU clásica para que el recorrer un árbol de X nodos pase de 1 segundo a 7-8 décimas de segundo, sin embargo los que optamos por la vía que ha elegido AMD de desarrollo estamos diciendo que es mejor actualizarse (cambiar la forma de hacer software como ya se ha hecho varias veces por cierto) y para un coste de 114€ para el usuario pasar a procesar imágenes de 0,30 Mpx/s a 5 Mpx/s, aunque el recorrido del anterior árbol lo siga haciendo en 1 segundo.

Parece que según tú eso es ignorancia, y más sin saber cuantos transistores lleva (como puede alguien dormir sin saber eso), otros lo vemos como la evolución natural, y es ni más ni menos que habiendo sistemas más eficientes de hacer algo, usarlos. Te lo resumo más fácil, es preferible una mejora del 500% para ciertas cosas (pesadas y que llevan mucho tiempo de procesar) y dejar otras como están, que mejorar un 40% esas otras cosas.

Por cierto nunca dije que programara OpenCL en multihilo, dije que he programado multihilo y he visto OpenCL, pero ya he tocado bastantes cosas como para viendo la documentación hacerme a la idea de cuanto tiempo me llevaría adaptarme. Y la verdad no parece muy desencaminado, mira el tiempo que se han tardado en que el software use completamente el multihilo y el tiempo que vamos a tardar en tener un editor de imágenes que use GPGPU. Todavía hay mucho software que no usa multihilo entre otras cosas.
darksch escribió:Bueno veo que tienes tu idea de lo que es la tecnología y de como funciona el mundo, y esos son tus problemas, te explico.

- Según tú la tecnología es "lo que diga Intel", pues no, insistes e insistes en separar, verás la realidad es que el problema siempre ha sido la capacidad de integración, hace unos años la caché L2 tenía que estar fuera en la placa pq no había capacidad de integración suficiente, ahora está en la CPU, por tu regla la L2 no es parte de la CPU.
Te lo pongo desde otro punto de vista, tengo un P-III y quiero ejecutar código que usa SSE2, no funciona, sin embargo en un C2D sí funciona, ¿entonces el C2D no es una CPU?, extendiendo, quiero ejecutar un programa que usa código OpenCL, en el AMD A8 se me ejecuta y en el C2D no, vaya ahora resulta que como el C2D no lo ejecuta pues debe ser pq eso no es de una CPU.
Por tu defnición de CPU, ni la FPU ni la gran mayoría de lo que traen debería ir dentro, ya que para hacer de CENTRAL PROCESSOR UNIT no hace falta nada de eso, el sistema puede funcionar con lo básico y apoyarse en coprocesadores externos. No espera, es que llevando FPU hace algunas cosas mucho más rápido, vaya pues exactamente igual que si lleva unidades hardware programables paralelas (la parte GPU).



No me cuentes historias hablándome de lo que se ha ido integrando o no en la cpu con el tiempo, y qué define o no una cpu según las novedades. La argumentación no va por ahí en absoluto, y me asombra que pretendas que reflexione sobre algo que no tiene sentido, la CPU es la que corre el soft de sistema, alias s.o, si te vale. Punto. Las extensiones o no del set de instrucciones es otro tema que nada tiene que ver.

Y desde luego tampoco tiene que ver que se integre componentes que son absolutas cajas negras para la cpu como es una IGP, no es una "extensión" de la cpu, es un complemento con ésta. Hasta el momento donde cpu y gpu se comuniquen de forma totalmente entremezclada y naturalmente, no podrás hacer analogías con una simple extensión del set de instrucciones que va perfectamente mezclada con código x86, incluso "deprecated" si quieres, como te gusta decir.

Llano o Trinity lo único que tienen es una IGP mejor que intel, pero que vendas que son opciones mucho mejores que todo un i5, cuando éste en cpu es muchísimo mejor, y te recuerdo, el soft de sistema y muchísimo soft de usuario corre exclusivamente en ésta, y seguirá corriendo en el futuró además, como que es un tanto parcial.


- Tu otro problema es el del software, verás hace años Advanced Gravis sacó una tecnología de sonido que se meaba en la de Creative, sin embargo no se sabe como (creo que si se sabe) muchos juegos optaban por no dar soporte a la Ultrasound, y en aquellos en los que sí se tenía, en ninguna revista se hacía eco de la inmensa mejora sonora que suponía, de hecho sólo se leía que tal sonaba en la Sound Blaster respecto a la versión Amiga y cosas así.
Dame una sola razón por la que Gears of War 2 no saliera en PC.
Ahí tienes el GIMP que lo hacen de gratis avanzando sin parar para poder llegado el día poder aplicar filtros a 5 Mpx/s mientras que los de Adobe (puedes leer un par de páginas atrás en el enlace que puse) no pone más que excusas, "no es que somos novatos en esto del OpenCL", "no es que...".
De saber cuantos transistores lleva una CPU te informas mucho pero de como funciona esto pues no mucho.



Me harté de ver comentarios positivos de sonido sobre las Gravis Ultrasound en juegos y demás en la prensa especializada, así que por ahí no van los tiros ni de lejos. Gravis fracasó al igual que Ad lib por no saber adaptarse, su problema es ser una tarjeta highend en un mercado en expansión pero reducido.

En la naturaleza se ve todos los días, los seres vivos que antes se extinguen son los especialistas, que no toleran los cambios de su ambiente. Con el ecosistema del sonido lo mismo, Creative era el generalista, y empezó a sacar productos de gama alta de buena calidad. En ese punto entre varios cambios hizo que el reducido mercado de Gravis se redujera más y la empresa se "extinguiera", un proceso natural cuando una empresa, o ser vivo, no se adapta a los cambios y vive encerrado en un nicho de mercado/ecológico.

De hecho hoy en día empresas como Creative están al borde de la "extinción", por lo menos en dicho mercado, porque se ha convertido en un especialista frente al sonido integado, y sus principales argumentos de venta se han vuelto obsoletos (capacidad de cómputo en técnicas de sonido). Empresas como Asus o Auzentech le comen el terreno porque saben que en este punto lo que importa es ofrecer calidad de componentes electrónicos, no ya chips "potentes", y soundblaster fallaba sobre todo en calidad (y drivers penosos).

Sobre Gears of War 2... LoL, ¿te tengo que explicar qué pasa ahí? Espero que no seas tan cándido para pensar que esa misma situación se extrapola a TODA la industria de desarrollo de programas para PC, porque simplemente estarías creyendo en un disparate. A diferencia de GoW2, donde microsoft puede mimar el equipo de desarrollo promocionando dicho producto ad nausea en su plataforma lúdica, con el mundo de los programas para PC/windows esto no es posible, por la simple razón de que microsoft no tiene ningún control ni forma auténtica de control tan estricto como sí lo tiene en su consola.

gimp, sí, tiene algunos filtros con OpenCL, pero que yo sepa hasta los programas de Adobe también los usa (y CUDA), aunque ninguno de los programas que mencionas usa MASIVAMENTE en todo tipo de filtros, y me refiero a cualquiera que use matrices de convolución, OpenCL.

Por algo será, ¿no?

Y sobre cómo es una cpu por dentro, gracias pero me parece que yo lo tengo mucho más claro que tú, dada las extrañas atribuciones que das a las IGP en los chips de AMD, cuando realmente, más allá de ser claramente más potentes que soluciones anteriores y estar en el mismo paquete de la cpu, no tienen diferencias abismales respecto a soluciones "externas". Las IGP de AMD en sus cpus se comportan EXACTAMENTE igual que las que integraban en sus chipsets anteriormente, acceden al controlador de memoria integrado en la cpu por su propio bus, y gracias. El resto de la comunicación es básicamente la misma que cualquier otra gráfica. A diferencia del caso de intel donde por ejemplo, su IGP sí se comunica de forma más íntima con la cpu al poder usar la L3 de la cpu como una memoria local de alta velocidad. Y aún así, a nivel funcional sigue siendo muy similar a lo que hace una IGP externa, sigue siendo la misma caja negra con algunos ajustes menores. Cuando realmente la comunicación cpu-gpu sea "fluida", cuando se "vean cerca" y una y otra se envíen/pasen directamente código como Pedro por su casa, entonces me repites lo del primer párrafo y te daré la razón, hasta ahora, no.

Por cierto, como dices más adelante, no hay problema en ejecutar OpenCL en un C2D, que yo sepa. No hace falta en absoluto tener una gpu para usarlo. Y las HD3000/4000 a su vez también son compatibles con OpenCL, estás trazando una frontera que no tiene sentido.


Por cierto, hay cosas que ya hace más rápido y no hace falta esperar a OpenCL, ejemplos:
- Programas 3D: el viewport usa OpenGL por lo que va mejor para la edición.
- Internet: este es un buen ejemplo, a lo mejor en el Intel el Firefox se te abre antes (si no está cacheado), pero una vez abierto, pues lo navegadores ya dibujan por hardware, y aunque Javascript sea más rápido en el Intel, la peor parte de Internet que son los gráficos (video, flash, canvas) pues irá mejor en el AMD.


Bueno, sobre el primer punto, te recomendaría si vas a trabajar con programas 3D el que no uses una IGP, por muy "chachi" que sea, como aceleradora de sus funcionalidades. Si vas a trabajar de forma realmente sería, aunque sea con planos 2D para Autocad, pero de los complejos o en 3D y más o menos un trabajo medio, te tienes que ir no sólo a tarjetas discretas, sino a las de gama profesional como las Quadro/FireGL. Sí, son iguales en tripas a las normales, y sí, te las venden muy caras para las castañas que a veces montan. Pero la diferencia entre tener las funcionalidades 3D exclusivas de este tipo de programas aceleradas y no tenerlas, es grande (por ejemplo, antialiasing de líneas, cambios en las optimizaciones para manejar mejor geometría que el rasterizado, etc), aunque todo sea debido a temas del driver.

Difícilmente tu último punto, flash sigue siendo un lenguaje interpretado mayormente, y aunque se pueda acelerar algunas tareas via gráfica, sigue habiendo una carga muy pesada en cpu, además de que para estas tareas que dices las gráficas integradas de intel no es que sean suficientes, es que además sobran. HTML5, flash, javascript, java, todos se benefician de una cpu más rápida, de hecho más que de una gpu más rápida, ya que si aceleran algunas tareas, son de las más básicas. Por cierto, Java hace poco ha empezado a incluir GPGPU a través de unas nuevas librerías, creo. Curiosamente NO usan OpenCL y se intenta hacer con una, digamos nueva API (¿o era un compilador? lo leí hace tiempo y por encima) porque precisamente se quiere evitar los problemas de generar código GPGPU eficiente, y dejarlo de parte de la máquina virtual y el JIT su "interpretación". Vamos, que digo yo que el campo de GPGPU no debe ser sólo de rosas cuando hacen intentos de simplificarlo y hacer transparente su uso.

- Por otro lado insistes, para bases de datos, cálculos (cosas que por cierto ya puse en el mensaje anterior), ya lo sé, para eso es mejor CPU clásica, pero es precisamente a lo que voy, según tú es mejor potenciar y potenciar, con un resultado de un coste para el usuario de 176€ la parte de CPU clásica para que el recorrer un árbol de X nodos pase de 1 segundo a 7-8 décimas de segundo, sin embargo los que optamos por la vía que ha elegido AMD de desarrollo estamos diciendo que es mejor actualizarse (cambiar la forma de hacer software como ya se ha hecho varias veces por cierto) y para un coste de 114€ para el usuario pasar a procesar imágenes de 0,30 Mpx/s a 5 Mpx/s, aunque el recorrido del anterior árbol lo siga haciendo en 1 segundo.


Ya, vale muy bonito. Pero, ¿y si yo necesito trabajar con bases de datos complejas todo el día qué hago? Yo no estoy negando que haya ventajas en usar GPUs para ciertas tareas, digo que NO todo se puede pensar que se podrá desplazar a la gpu y por tanto, tiene y mucho sentido que las cpus se potencien. El coste es relativo, ese i5 que mencionas funciona mucho mejor para ciertas tareas que el AMD, y el ahorro puede ser una ventaja pírrica y hasta contraproducente si quieres un sistema muy rápido en toda situación.

Parece que según tú eso es ignorancia, y más sin saber cuantos transistores lleva (como puede alguien dormir sin saber eso), otros lo vemos como la evolución natural, y es ni más ni menos que habiendo sistemas más eficientes de hacer algo, usarlos. Te lo resumo más fácil, es preferible una mejora del 500% para ciertas cosas (pesadas y que llevan mucho tiempo de procesar) y dejar otras como están, que mejorar un 40% esas otras cosas.

Por cierto nunca dije que programara OpenCL en multihilo, dije que he programado multihilo y he visto OpenCL, pero ya he tocado bastantes cosas como para viendo la documentación hacerme a la idea de cuanto tiempo me llevaría adaptarme. Y la verdad no parece muy desencaminado, mira el tiempo que se han tardado en que el software use completamente el multihilo y el tiempo que vamos a tardar en tener un editor de imágenes que use GPGPU. Todavía hay mucho software que no usa multihilo entre otras cosas.



No, según yo es ignorancia que digas que gastar un 5% de transistores en temas como HT es "embrutecer" una cpu, que mejora el rendimiento por encima de este gasto, y esta misma técnica la ves usada masivamente, de forma incluso más compleja, en cpus de IBM o Sun. Eso es ignorancia o querer pintar las cosas como lo que no son.

Y no es una cuestión de "preferible", de elegir una cosa o la otra, pero nunca las dos simultáneamente. Puedes repasar la evolución de los chipsets gráficos de intel, y verás que intel ha pegado dos grandes saltos que le han acercado a AMD y sus IGPs como nunca antes había sido capaz. Tanto es así que dedica mucha área de sus dies de cpus comerciales para estas IGP, su rendimiento no será mejor que la de un Llano o un Trinity (y cuidado, Ivy está bastante cerca del rendimiento de Llano en gpu, con alguna victoria aislada inclusive).

Intel mejora sus cpus, pero desde el P4 sigue una filosofía de "toda mejora introducida no debe consumir más % de área o aumento de consumo que el % de mejora de rendimiento que aporte". Y desde entonces le va mucho mejor. Pero tampoco renuncia a lo que acabas de decir de "mejorar mucho las tareas pesadas", por eso ha incluido precisamente Quicksync, que es mucho más potente codificando vídeo que las opciones basadas en GPGPU.

Yo no sé porqué hay que renunciar a que una cpu mejore por mejorar gráficos, hasta has admitido que existen sectores enteros y además importantes de soft que no se ven beneficiados de GPGPU. Para mí es tan valioso sino más que un sistema sea capaz de machacar matrices enormes de datos "simples" que el que sea rápido trabajando con estructuras de datos complejas, y gestionando por ejemplo árboles para la ordenación/búsqueda de este tipo de datos. Porque al final TODO esto se usa en muchos programas.

Te insisto que el desarrollador busca sobre todo la efectividad, aunque es cierto que el rendimiento de GPGPU puede llegar a ser muy grande, y que se ha tardado y se tarda mucho en crear soft multihilo, no creo que te extrañe teniendo en cuenta que en muchos programas el beneficio es nulo o escaso (al igual con uso de GPGPU). Sin embargo el soft multihilo sí se puede adaptar a entornos de bases de datos y hojas de cálculo (sigo con el ejemplo), mucho mejor que GPGPU, por muy "rápido" que te parezca el último. Se puede usar ambas cosas simultáneamente, y hasta en GPGPU una cpu ágil puede mejorar el resultado de rendimiento de una gráfica (mayormente porque muchas veces la cpu tiene que "preparar" la información para que la GPU la procese).


Yo no veo el porqué tienes que despreciar tanto las mejoras en cpu, que benefician a más del 90% del soft existente, y ningunear tanto soluciones IGP de intel que aunque inferiores a las de AMD, sirven para muchas de las tareas que has dicho (3D básico, aceleración de navegación web, etc).

Para mí están más que bien invertidos 60€ en una cpu rápida, porque trabajo a veces con BBDD, porque programo también con estructuras de datos complejas (grafos), y porque además me gusta echar una partida con calidad, esto es, con gráfica dedicada y potente, y una cpu rápida es el compañero perfecto para esto. Y no una cpu pensada más para un HTPC, área que no tengo problema en dar por más que bien cubierta por Llano o Trinity.

Creo que ahora debería estar más claro mi punto y mis críticas.
Saludos.
Chicos por dios teneis que aprender a no escribir tochos tan enormes xD
El de los catorce está baneado por "clon de usuario baneado"
Yo creo que AMD ya ha perdido el tren de los procesadores dedicados. Más les vale dedicarse a las APU que para algo compraron a ATI y dejar que esa guerra contra intel la libre ARM. A nivel de procesadores la APU está muy bien planteada para escritorio en las tareas de productividad, hasta para mid-range gaming con el crossfire híbrido. Que se especialicen y ganaremos todos, que quien mucho abarca...

Por cierto, ¿no hay fecha para que venga la Trini? Lo estoy esperando antes de renovar mi viejo athlon 3200+ y no hacen nada más que retrasarse...
Seré más breve.

Te acabas de cargar de un plumazo toda posible guerra de procesadores, entonces una CPU es lo básico y el resto son añadidos. ¿El dibujado de ventanas no es el soft del sistema?. Ese set de instrucciones que tan bien se lleva con el x86 como dices, no puede ejecutarse al mismo tiempo que el set x86, por si no lo sabías, sin embargo para ciertas tareas conviene activarlo y usarlo pq es mucho mejor. De nuevo, tu idea de CPU está equivocada.

A ver como lo pongo para que veas que es la CPU quien lo ejecuta: la CPU tiene su unidad de control, le llega un opcode, no puede ejecutarlo pero otra unidad externa sí, se la envía. Otra CPU, le llega la misma operación, ¿puede ejecutarla?, sí, la envía a una unidad suya de procesamiento, y no depende de coprocesadores externos, ¿quién lo ejecuta?, la CPU. Es decir, es una unidad más que ahora llevan las CPUs, es que no veo lo complicado, ¿qué está mejor o peor integrado?, ya se mejorará como todo.
Por verlo de otro modo, estas CPUs modernas (ahora el Intel tb con la HD4000) tienen un set de instrucciones que ha sido muy ampliado, ya que ahora aceptan instrucciones que antes tenían de desviar a otra unidad externa (GPU).

Y todo el resto es otra vez lo mismo, por resumir tú insistes en bases de datos y grafos y yo en imágenes y video, pero vamos a ver, ¡si es que es justo eso!, me repito, los hay que prefieren que les mejoren un tanto % las BBDD y los grafos, y los hay que prefieren que les mejoren el tratamiento de imágenes, video y 3D. Los hay que disfrutan viendo como el PCMark (test de "tareas de CPU" como las llamas) da unos valores más altos, y los hay que disfrutan viendo como pueden activar filtros de imagen en un video 1080p sin que la CPU se resienta. Que quieres que te diga, es justo eso.

Y respecto al resto de usar una Quadro y tal, ya lo sé, pero no todo el mundo la tiene ni la puede tener y para un gran público el poder cargar el Blender, activarle el OpenGL para el viewport, y dentro de poco el motor de render OpenCL, pues es un puntazo, y más con un procesador de 114€. En estas circunstancias resulta que va a funcionar mejor el AMD que el Intel.

Y está claro que hay que acompañar de una gráfica si quieres alto rendimiento, pero de nuevo me remito a:
1) En modo ahorro el AMD será mejor en lo anterior puesto.
2) En modo rendimiento puede apoyar más con el Hybrid Crossfire.
Aunque en un portátil esto no es tan trivial, o ya la traía o mal rollo. Y con una visión más general, si a alguien le vale que por el precio del Fusion aplicar filtros a 5 Mpx/s y no más, pues oye a lo mejor se puede ahorrar. Teniendo en cuenta la de gente que tira con lo integrado, el AMD está mejor equilibrado para eso de tirar de lo integrado.

Es cierto cualquier CPU ejecuta OpenCL y precisamente la abstracción hace más fácil aún integrarlo, es decir cuando toque ejecutarlo cada CPU lo hará de la mejor forma posible. Y ahora que lo mencionas sirve como nuevo ejemplo, cuando antes una CPU no tenía FPU ejecutaba la coma flotante en modo emulación, pues con esto lo mismo. Y ahora me dirás que no venga con lo que se ha integrado en las CPUs con el tiempo pq no tiene nada que ver, vamos a ver, ¡pero si es que la evolución tecnológica es justo eso!.

Yo la verdad ya no sé ni como ponerlo, yo lo dejo ya así y ya cada cual que lea lo que hay.

Edit: ya que estaba tenía curiosidad por como andaba realmente el tema, dejo un par de links.
http://www.tomshardware.com/reviews/a10-4600m-trinity-piledriver,3202-9.html
http://www.tomshardware.com/reviews/ivy-bridge-benchmark-core-i7-3770k,3181-5.html
Usando Skyrim como referencia, que creo que es un juego bastante "genérico" y puede usarse como base, el AMD Llano parece sacarle más o menos un 33% (1/3) de media al Intel Sandy Bridge (HD3000), sin embargo el Intel Ivy Bridge (HD4000) se pone bastante cerca del AMd Llano (más derca de éste que del Sandy Bridge), sin embargo luego sale el AMD Trinity y vemos que le saca otro 30% aprox. al AMD Llano.
Si a alguien le sirve pues ahí están las comparativas.
El de los catorce escribió:..

Por cierto, ¿no hay fecha para que venga la Trini? Lo estoy esperando antes de renovar mi viejo athlon 3200+ y no hacen nada más que retrasarse...


Saldran casi al mismo tiempo que los FX Vishera, es decir para la ultima semana de este mes de septiembre.

El de los catorce escribió:Más les vale dedicarse a las APU que para algo compraron a ATI y dejar que esa guerra contra intel la libre ARM. A nivel de procesadores la APU está muy bien planteada para escritorio en las tareas de productividad, hasta para mid-range gaming con el crossfire híbrido.



La revision 3 de la arquitectura Bulldozer, es decir, los modulos SteamRoller estaran optimizados para el tema de consumo/rendimiento de los APUs en lo referente al uso del CPU+iGP de tal manera que cuando se esten usando mas los nucleos del iGP se apagen los nucleos inactivos del CPU, aparte de que ahora si el iGP podra acceder directamente a la RAM y no solo a la VRAM.

Por cierto, AMD lanzara proceadores Sempron y Athlon con modulos Piledriver, los mismos usados en los APUs Trinity pero obviamente sin el iGP, igual para el zocalo FM2. Mas detalles: hilo_chisme-tibio-nuevos-sempron-y-athlon-para-este-ano_1804214
WiiBoy escribió:Primeros bechs del vishera

http://www.muycomputer.com/2012/09/03/p ... pcionantes

la mejora es ridicula

Ya lo dije yo.. Hasta que no lo vea no lo creo.

AMD ultimamente nos promete maravillas y al final es todo un engaño
Esos benchs los ha prometido desde el viernes y hasta ayer los puso. pero no loe he publicado debido a que

1. Muchos foros indican que este blog de OBR no es muy fiable en su metodica y mucho menos en sus resultados, aparte de no ser neutrales.
2. Ellos no han hecho las pruebas, sino son resultados de terceras personas -segun esto seria la muestra de ingenieria que se presento en una pagina asiatica-.
3. Es un procesador de muestra y aun esta un poco en duda si es real o no, aunque en varios foros dicen que es muy probable que si sea una version de muestra de ingenieria real [y una de las dos que segun existen en poder de gente que no sea ingeniero de alguna compañia fabricante de tarjetas madre]
Me suena que se dijo que ese procesador de muestra no era mas que un simple Bulldozer corriendo a esa frecuencia.

Aun asi no espero mejoras drasticas en Vishera, cuando ocurren cosas de estas hay que esperar bastante mas para ver "mejoras" reales.
Por mucho procesador de muestra que sea y los test sean echos por cualquiera, te digo ya que en mono hilo va a ser un pelin mejor de lo ques ahora pero nada mas, ami me da que algo les falla y no les va como debe de ir, como el primer ferrari de alonso que por mucho que querian no corria xD
Uff eso era un corta césped, no un F1 jejeje.

Si revisan bien el consumo, potencia multi - hilo y no se pasan de precio y mantienen los de ahora, puede ser un paso al auténtico cambio que será Steamroller, donde las mejoras no sólo llegan por cambio de nodo sino también por mejora drástica en los módulos.
Quien sabe, ya los APU Trinity con su modulo PileDriver mejoran bastante a los ZamBezi [AMD FX de primera generacion] en rendimiento -aun sin tener cache L3- y sobre todo en gasto electrico, con lo que si al menos logran estos vishera con su nucleo PileDriver+ mantenerse un poco por delante en rendimiento a los Trinity y con el mismo gasto electrico ya seria un producto muy interesante mientras se mantega al mismo precio que el ZamBezi.

Y a esto, WiiBoy ¿has probado tu FX en Windows 8?
Trinity tiene la ventaja de la plataforma, fm2, muy superior (lógico) a am3+. Tiene pcie integrado, controlador, NB completo... además, carece de Hypertransport, un lastre a estas alturas para el procesador.
Eso es lo que venia comentando al inicio del post sobre el cambio de plataforma. Pero, entonces podemos decir que el problema de rendimiento -si lo hay- viene dado en el chipset y zocalo, mas no en la arquitectura misma del modulo PileDriver+ [BullDozer rev2]
102 respuestas
1, 2, 3