Cyborg_Ninja escribió:Pero si esta siendo generoso, la GPU de PS4 es sobre el papel un 40% mas potente, y contando con mas ROPs, mas Textures Units... los multis son la mejor manera de medir (que se han reducido las diferencias hacia una mas realista, nada de un 100% superior como COD: Ghost como a principios de generacion), los desarrolladores siempre comentan que "Es un poco mas potente" (refiriendose a la maquina de la competencia), etc etc.
Otra cosa es que creais las historias para no dormir de Misterxmedia, Flashbackman y compañia.
KinderRey escribió:@papatuelo PIM es una tecnología muy prometedora para analíticas de datos en tiempo real en entornos profesionales, gubernamentales y empresariales. Forma parte de la llamada "Exascale Computing" en la que el Departamento de Energía de EEUU ha invertido en forma de subvenciones más de 400 millones de dólares (subvenciones a AMD, Nvidia e Intel). Hay un gran interés estratégico en torno a esta tecnología, muy ligada al Big Data.
Es una idea que viene de finales de los ´80 pero inaplicable por sus costes. Mira este artículo de 1996: http://archive.wired.com/wired/archive/4.08/geek.html
Para datacenters no sólo ahorraría miles de millones en costes energéticos. Sería como construir una especie de dispositivo de cloud-computing súper eficiente. En un rack 52U con hojas estándar de 21" cabrían unos 18TB de memoria y alrededor de 1 millón de cores. Big Data es un gran negocio en el que tanto Microsoft como las demás grandes empresas tecnológicas quieren posicionarse para no perder tren.
Ahora, de ahí a verlo en una consola de videojuegos.... sería impresionante pero no lo veo.
pspskulls escribió:Cyborg_Ninja escribió:Pero si esta siendo generoso, la GPU de PS4 es sobre el papel un 40% mas potente, y contando con mas ROPs, mas Textures Units... los multis son la mejor manera de medir (que se han reducido las diferencias hacia una mas realista, nada de un 100% superior como COD: Ghost como a principios de generacion), los desarrolladores siempre comentan que "Es un poco mas potente" (refiriendose a la maquina de la competencia), etc etc.
Otra cosa es que creais las historias para no dormir de Misterxmedia, Flashbackman y compañia.
Es mejor creerse la chorrada que acabas de decir tú que también te la sacas de donde te da la gana. Dejala en un 400% más potente y así duermes mejor.
Hay que entender un poco para comprender que los mismos objetivos en ambas consolas no se pueden conseguir de la misma manera, pues las arquitecturas son distintas.
pspskulls escribió:. Y no me hace falta hablar con mis colegas developers, gracias.
¿En que? Ryse se folla a cualquier otro juego de xbox one y en pc funciona con una 7770 mejor que en xbox one
isma82 escribió:f5inet escribió:isma82 escribió:[...]Es justo lo que estais haciendo vosotros ahora.[...]
perdona, me acabo de perder... ¿quien es 'vosotros'?
Tu y todos los que estáis diciendo que xbox one tiene doble gpu. Sabes perfectamente a lo que me refiero.
Cyborg_Ninja escribió:pspskulls escribió:. Y no me hace falta hablar con mis colegas developers, gracias.
EDIT: Aun asi, leyendo a isma82, hay cosas en las que esta totalmente equivocado:¿En que? Ryse se folla a cualquier otro juego de xbox one y en pc funciona con una 7770 mejor que en xbox one
Eso es totalmente falso. El Ryse en PC con una HD7770 le tienes que quitar el V-sync, calidad Media (en One es High, incluidas las texturas) y las texturas en Low, a 900p o menos, y sigues teniendo unos bajones de framerate mucho mas serios. Vamos, que no, que una 7770 no rinde como la GPU de Xbox One en el Ryse.
isma82 escribió:Cyborg_Ninja escribió:pspskulls escribió:. Y no me hace falta hablar con mis colegas developers, gracias.
EDIT: Aun asi, leyendo a isma82, hay cosas en las que esta totalmente equivocado:¿En que? Ryse se folla a cualquier otro juego de xbox one y en pc funciona con una 7770 mejor que en xbox one
Eso es totalmente falso. El Ryse en PC con una HD7770 le tienes que quitar el V-sync, calidad Media (en One es High, incluidas las texturas) y las texturas en Low, a 900p o menos, y sigues teniendo unos bajones de framerate mucho mas serios. Vamos, que no, que una 7770 no rinde como la GPU de Xbox One en el Ryse.
Fijate en el benchmark a 1080p tiene menos rendimiento en frames pero está a 1080 con calidad alta la misma o superior a la de xbox one. Y fijate media 24, minimo 21. A 900p iria a 30 fps sin demasiadas caidas.
El rendimiento en xbox one no es 30 frames estables ni mucho menos. Lo que quiero decir con esto es que el juego tiene un rendimiento sensacional en pc lo que demuestra que es un juego que tecnicamente puedes mover con 1.31 Tflops porque lo está moviendo una gpu con 1.2 Tflops y se ve mucho mejor que otros que requieren requisitos mas elevados.
Sgallego escribió:No seria mas logico pensar que si tuviera doble gpu como se comenta, esta destacaria notablemente en rendimiento respecto a la otra??? y no es asi, no? yo pienso que el movimiento se demuestra andando y tanto tecnicismo sin que haya un juego que destaque notablemente en la técnica demuestra que todo esto es una falacea y un vende motos hasta q se demuestre lo contrario con juegos con bastatante carga grafica a 1080/60P fluidos, q muy poquitos se han visto hasta ahora....vamos una maquina con 4 teraflops como se dice esto se lo ventilaria sin despeinarse y no es el caso.
f5inet escribió:Lo unico que digo es que dicha GPU, que rinde a 1,31Tflops cuando se programa con DirectX11.x, rinde 'como si fuera' a 4Tflops cuando se programa con DirectX12, porque con DirectX12 se tiene acceso a los registros de 256bits y a los dos pipes.
isma82 escribió:Cyborg_Ninja escribió:pspskulls escribió:. Y no me hace falta hablar con mis colegas developers, gracias.
EDIT: Aun asi, leyendo a isma82, hay cosas en las que esta totalmente equivocado:¿En que? Ryse se folla a cualquier otro juego de xbox one y en pc funciona con una 7770 mejor que en xbox one
Eso es totalmente falso. El Ryse en PC con una HD7770 le tienes que quitar el V-sync, calidad Media (en One es High, incluidas las texturas) y las texturas en Low, a 900p o menos, y sigues teniendo unos bajones de framerate mucho mas serios. Vamos, que no, que una 7770 no rinde como la GPU de Xbox One en el Ryse.
Fijate en el benchmark a 1080p tiene menos rendimiento en frames pero está a 1080 con calidad alta la misma o superior a la de xbox one. Y fijate media 24, minimo 21. A 900p iria a 30 fps sin demasiadas caidas.
El rendimiento en xbox one no es 30 frames estables ni mucho menos. Lo que quiero decir con esto es que el juego tiene un rendimiento sensacional en pc lo que demuestra que es un juego que tecnicamente puedes mover con 1.31 Tflops porque lo está moviendo una gpu con 1.2 Tflops y se ve mucho mejor que otros que requieren requisitos mas elevados.
Andrew Goossen: The number of asynchronous compute queues provided by the ACEs doesn't affect the amount of bandwidth or number of effective FLOPs or any other performance metrics of the GPU. Rather, it dictates the number of simultaneous hardware "contexts" that the GPU's hardware scheduler can operate on any one time. You can think of these as analogous to CPU software threads - they are logical threads of execution that share the GPU hardware. Having more of them doesn't necessarily improve the actual throughput of the system - indeed, just like a program running on the CPU, too many concurrent threads can make aggregate effective performance worse due to thrashing.We believe that the 16 queues afforded by our two ACEs are quite sufficient.
isma82 escribió:
isma82 escribió:Cyborg_Ninja escribió:pspskulls escribió:. Y no me hace falta hablar con mis colegas developers, gracias.
EDIT: Aun asi, leyendo a isma82, hay cosas en las que esta totalmente equivocado:¿En que? Ryse se folla a cualquier otro juego de xbox one y en pc funciona con una 7770 mejor que en xbox one
Eso es totalmente falso. El Ryse en PC con una HD7770 le tienes que quitar el V-sync, calidad Media (en One es High, incluidas las texturas) y las texturas en Low, a 900p o menos, y sigues teniendo unos bajones de framerate mucho mas serios. Vamos, que no, que una 7770 no rinde como la GPU de Xbox One en el Ryse.
Fijate en el benchmark a 1080p tiene menos rendimiento en frames pero está a 1080 con calidad alta la misma o superior a la de xbox one. Y fijate media 24, minimo 21. A 900p iria a 30 fps sin demasiadas caidas.
El rendimiento en xbox one no es 30 frames estables ni mucho menos. Lo que quiero decir con esto es que el juego tiene un rendimiento sensacional en pc lo que demuestra que es un juego que tecnicamente puedes mover con 1.31 Tflops porque lo está moviendo una gpu con 1.2 Tflops y se ve mucho mejor que otros que requieren requisitos mas elevados.
Cyborg_Ninja escribió:Ya te digo que el Benchmark puede poner lo que quieran, pero te puedo asegurar que no es correcto. A 900p y en calidad Alta, con las texturas en LOW (si las pones en High te cargas totalmente el rendimiento, teniendo caidas a 10 fps con girar la camara) y sin V-sync va mucho, muchisimo peor que en la One. No gano nada engañando, de hecho te estoy dando la razon y pienso que tu opinion es de las mas, o directamente la mas coherente del hilo. Y te lo digo porque lo he probado con una HD7770 y era totalmente insostenible jugarlo a 900p con calidad alta, y eso que las texturas se te ponen en Low obligatoriamente por la cantidad de VRAM, y si lo aumentas forzandolo el juego es injugable, el v-sync tienes que desactivarlo y tener un tearing brutal para que vaya medianamente fluido... creeme, con una 7770 no rinde como en la One ni por asomo.
One thing to keep in mind when looking at comparative game resolutions is that currently the Xbox One has a conservative 10 per cent time-sliced reservation on the GPU for system processing. This is used both for the GPGPU processing for Kinect and for the rendering of concurrent system content such as snap mode. The current reservation provides strong isolation between the title and the system and simplifies game development (strong isolation means that the system workloads, which are variable, won't perturb the performance of the game rendering). In the future, we plan to open up more options to developers to access this GPU reservation time while maintaining full system functionality.
To facilitate this, in addition to asynchronous compute queues, the Xbox One hardware supports two concurrent render pipes. The two render pipes can allow the hardware to render title content at high priority while concurrently rendering system content at low priority. The GPU hardware scheduler is designed to maximise throughput and automatically fills "holes" in the high-priority processing. This can allow the system rendering to make use of the ROPs for fill, for example, while the title is simultaneously doing synchronous compute operations on the Compute Units.
papatuelo escribió: Y con eso del Ryse que es lo que quieres decir?
Si quieres puedes mirar el Alien resurrection en PC y en base a eso me cuentas que gráficas tienen ambas consolas.
isma82 escribió:[...]
Pues claramente la cpu les esta haciendo a ps4 y xbo tres cuellos de botella uno detras de otro. No es novedad o si? Lo interesante es ver como va a ahcer apra que esa cpu chunguera va a alimentar el rendimiento de 4 tflops. Eso si que es digno de estudio. Da para tres paper.
f5inet escribió:isma82 escribió:[...]
Pues claramente la cpu les esta haciendo a ps4 y xbo tres cuellos de botella uno detras de otro. No es novedad o si? Lo interesante es ver como va a ahcer apra que esa cpu chunguera va a alimentar el rendimiento de 4 tflops. Eso si que es digno de estudio. Da para tres paper.
pero hombre, Isma82... se te ve olvidadizo...
http://blogs.msdn.com/b/directx/archive ... vings.aspx
http://www.extremetech.com/gaming/18797 ... -tech-demo
si precisamente DirectX12 (y directX11.3) tiene como principal 'feature' la reduccion del 'overhead' de la CPU al alimentar a la GPU... Eso si, no vayamos a hablar aqui de GNM y/o GNMX, que no es su lugar...
With all of this in mind, the fact that PS4 is within striking distance at all is a fairly substantial achievement. Only the omission of Sparse Voxel Octree Global Illumination tech (SVOGI) comes across as a disappointment - and from this, it's difficult to avoid the conclusion that at a base-line level, the next generation of console hardware isn't quite as powerful as Epic was hoping for this time last year.
isma82 escribió:f5inet escribió:isma82 escribió:[...]
Pues claramente la cpu les esta haciendo a ps4 y xbo tres cuellos de botella uno detras de otro. No es novedad o si? Lo interesante es ver como va a ahcer apra que esa cpu chunguera va a alimentar el rendimiento de 4 tflops. Eso si que es digno de estudio. Da para tres paper.
pero hombre, Isma82... se te ve olvidadizo...
http://blogs.msdn.com/b/directx/archive ... vings.aspx
http://www.extremetech.com/gaming/18797 ... -tech-demo
si precisamente DirectX12 (y directX11.3) tiene como principal 'feature' la reduccion del 'overhead' de la CPU al alimentar a la GPU... Eso si, no vayamos a hablar aqui de GNM y/o GNMX, que no es su lugar...
Un 60% de cpu en PC va a alimentar un 250% de incremente de rendimiento en GPU...
Si hombre si...
eloskuro escribió:Por cierto. Es curioso que en la demo de UE4 se dijese que en las consolas next gen no se iba a poder usar el Sparse Voxel Octree Global Illumination tech (SVOGI)With all of this in mind, the fact that PS4 is within striking distance at all is a fairly substantial achievement. Only the omission of Sparse Voxel Octree Global Illumination tech (SVOGI) comes across as a disappointment - and from this, it's difficult to avoid the conclusion that at a base-line level, the next generation of console hardware isn't quite as powerful as Epic was hoping for this time last year.
Pero ahora sepamos que Fable Legends si que va a poder soportarlo ^^
https://www.youtube.com/watch?v=lawvf4jdEO4#t=48
Epic has previously researched a real-time GI method called SVOGI with promising results, but it was never quite fast enough. Of all the papers on the subject, Crytek's Light Propagation Volumes seemed like the best solution for our game. It was fast, scalable and could also support reflections and secondary occlusion. However, this method was a DirectX 9 implementation, and we felt we could do even better with modern DirectX 11-class hardware and the power of compute shaders.
We developed an implementation of Light Propagation Volumes, specifically targeted at modern GPUs (such as the one in Xbox One). Our method supports 2nd-Order Spherical Harmonics, which gives better directionality than the original method. We use compute shaders to generate a high quality voxel representation of the scene's geometry, which we use to provide secondary occlusion and multiple light bounces.
Cyborg_Ninja escribió:pspskulls escribió:. Y no me hace falta hablar con mis colegas developers, gracias.
pspskulls escribió:Cyborg_Ninja escribió:pspskulls escribió:. Y no me hace falta hablar con mis colegas developers, gracias.
Digamos que algo sé sobre AC Unity al menos...
isma82 escribió:pues aqui lo tienes saca tus propias conclusiones sobre la potencia descocada de xbox one y su rendimiento a 4 tflops (cuando salga dx 12, que se me olvidaba)
.
Nuhar escribió:isma82 escribió:
Pero esa tabla con un I7, un SSD y DDR4, vamos, ni punto de comparación.
KinderRey escribió:
Sigo sin entender tus argumentos, lo siento. No sólo te inventas cosas, como que todas las gráficas GCN actuales pueden hacer "context switching" o que FULL HSA es un concepto difuso e inventado, sino que ahora sacas una gráfica donde comparas tarjetas de PC para intentar demostrar "queseyo" de la One.
Cyborg_Ninja escribió:A ver, Mazinger, la clave esta en las texturas. Mover el juego en low-medium-high no hay una diferencia abismal ni en lo que demanda ni en lo visual, el problema son las texturas. Una HD7770 o una 7790 te ponen las texturas en Low o en el mejor de los casos en Medium, mas alla de eso pide mucha VRAM y se carga el rendimiento de estas dos GPU, sin embargo lo sorprendente es que tanto en Medio como en Bajo tiene peores texturas que la version de One, que sus texturas equivalen a Ultra.
Mover el juego a 1080p, medio-alto lo puedes hacer con una 7770 a un framerate estable y sin v-sync, pero con las texturas en LOW. Ponerlas en Medio es perder 10 fps facilmente, y ponerlas en High te hace el juego sencillamente injugable, con caidas a 10-15 fps en giros de camara bruscos, por no tener la VRAM requerida.
Es decir, la 7790 si puede rendir parecido a la version de One, pero la 7770 de ninguna de las maneras.
PD: isma82, te digo lo mismo, no sabemos cuales son las specs con las que estan ejecutando el juego.
Aqui te dejo un video:
http://www.youtube.com/watch?v=_AYi8sbwcA8
High/Medio custom, entre 25-36fps, SIN V-SYNC, con texturas en BAJO.
Si le pones las texturas en el equivalente a la version de Xbox One se te pone a 10 fps, es que lo tengo comprobado. Lo probe con un i5-2500k a 4 Ghz, dudo que estuviera limitando a una 7770.
EDIT: Hemos puesto el mismo video y es lo que yo te decia eh...
Cyborg_Ninja escribió:A ver, Mazinger, la clave esta en las texturas. Mover el juego en low-medium-high no hay una diferencia abismal ni en lo que demanda ni en lo visual, el problema son las texturas. Una HD7770 o una 7790 te ponen las texturas en Low o en el mejor de los casos en Medium, mas alla de eso pide mucha VRAM y se carga el rendimiento de estas dos GPU, sin embargo lo sorprendente es que tanto en Medio como en Bajo tiene peores texturas que la version de One, que sus texturas equivalen a Ultra.
Mover el juego a 1080p, medio-alto lo puedes hacer con una 7770 a un framerate estable y sin v-sync, pero con las texturas en LOW. Ponerlas en Medio es perder 10 fps facilmente, y ponerlas en High te hace el juego sencillamente injugable, con caidas a 10-15 fps en giros de camara bruscos, por no tener la VRAM requerida.
Es decir, la 7790 si puede rendir parecido a la version de One, pero la 7770 de ninguna de las maneras.
PD: isma82, te digo lo mismo, no sabemos cuales son las specs con las que estan ejecutando el juego.
Aqui te dejo un video:
http://www.youtube.com/watch?v=_AYi8sbwcA8
High/Medio custom, entre 25-36fps, SIN V-SYNC, con texturas en BAJO.
Si le pones las texturas en el equivalente a la version de Xbox One se te pone a 10 fps, es que lo tengo comprobado. Lo probe con un i5-2500k a 4 Ghz, dudo que estuviera limitando a una 7770.
isma82 escribió:Cyborg_Ninja escribió:A ver, Mazinger, la clave esta en las texturas. Mover el juego en low-medium-high no hay una diferencia abismal ni en lo que demanda ni en lo visual, el problema son las texturas. Una HD7770 o una 7790 te ponen las texturas en Low o en el mejor de los casos en Medium, mas alla de eso pide mucha VRAM y se carga el rendimiento de estas dos GPU, sin embargo lo sorprendente es que tanto en Medio como en Bajo tiene peores texturas que la version de One, que sus texturas equivalen a Ultra.
Mover el juego a 1080p, medio-alto lo puedes hacer con una 7770 a un framerate estable y sin v-sync, pero con las texturas en LOW. Ponerlas en Medio es perder 10 fps facilmente, y ponerlas en High te hace el juego sencillamente injugable, con caidas a 10-15 fps en giros de camara bruscos, por no tener la VRAM requerida.
Es decir, la 7790 si puede rendir parecido a la version de One, pero la 7770 de ninguna de las maneras.
PD: isma82, te digo lo mismo, no sabemos cuales son las specs con las que estan ejecutando el juego.
Aqui te dejo un video:
http://www.youtube.com/watch?v=_AYi8sbwcA8
High/Medio custom, entre 25-36fps, SIN V-SYNC, con texturas en BAJO.
Si le pones las texturas en el equivalente a la version de Xbox One se te pone a 10 fps, es que lo tengo comprobado. Lo probe con un i5-2500k a 4 Ghz, dudo que estuviera limitando a una 7770.
EDIT: Hemos puesto el mismo video y es lo que yo te decia eh...
El tema de la memoria, es normal Xbox one puede manejar unos 3 GB de vRAM y una gpu de 1 GB se queda corta no por potencia de renderizado si no porque no tiene ram para almacenarla. Pero es que hay tropecientos ejemplos de que ryse lo mueve cualquier gpu de pc medio decente a 1080p. Por cierto creo recordar que en DF dijeron que xbox one no tenia todas las texturas en very high tampoco, a parte de menos sombras, un lod menor, etc.
Lo que discuto es que el usuario Nuhar ha dicho 'Pero esa tabla con un I7, un SSD y DDR4, vamos, ni punto de comparación.' como si esos componentes extraordinariamente caros fuera una gran ventaja para un PC, cuando en absoluto son una mejora sustancial que proporcionen mas frames en Ryse que un viejo i5 2500k con DDR3 y un vulgar disco mecánico.
papatuelo escribió:@isma82
Estás diciendo que Ryse se ve muy bien y que lo que necesitarían las consolas para moverlo mejor no es más CPU si no más GPU. Hemos pasado entonces de un contexto en el que los juegos son menos dependientes de la GPU para serlo más de la CPU.
En ese caso si con lo que sería una HD7770 (suponiendo que lo sea) y gracias a esos nuevos motores, tipo Cryengine 3, podemos ver cosas brutisimas. ¿Dónde tiene entonces el problema la XBOX ONE? ¿Según tos propias deducciones tiene la configuración perfecta, tenemos una GPU que requiere de la CPU trabajando en multihilo (Directx 12) para no hacerle cuello de botella y mostrar gráficos que equivaldrían a configuraciones mucho más potentes de GPU.
Entonces para no hace cuello de botella a una HD7850 necesitaríamos aún más CPU para tener un sistema equilibrado, o como mínimo que alguien hiciera funcionar la CPU como Dios quiere y manda.
Según tus propios argumentos la GPU deXBOX ONE es suficiente, supongo que ves donde quiero llegar.
Recuerdas?
"Tenemos un sistema balanceado para 12 CU's"
Liberarón potencia de la GPU para dar respuesta al panorama actual, más GPU dependiente, pero sabés que todo eso va cambiar más pronto que tarde.
Está claro que la CPU con las nuevas API's y los nuevos motores no necesitaba más.
isma82 escribió:papatuelo escribió:@isma82
Estás diciendo que Ryse se ve muy bien y que lo que necesitarían las consolas para moverlo mejor no es más CPU si no más GPU. Hemos pasado entonces de un contexto en el que los juegos son menos dependientes de la GPU para serlo más de la CPU.
En ese caso si con lo que sería una HD7770 (suponiendo que lo sea) y gracias a esos nuevos motores, tipo Cryengine 3, podemos ver cosas brutisimas. ¿Dónde tiene entonces el problema la XBOX ONE? ¿Según tos propias deducciones tiene la configuración perfecta, tenemos una GPU que requiere de la CPU trabajando en multihilo (Directx 12) para no hacerle cuello de botella y mostrar gráficos que equivaldrían a configuraciones mucho más potentes de GPU.
Entonces para no hace cuello de botella a una HD7850 necesitaríamos aún más CPU para tener un sistema equilibrado, o como mínimo que alguien hiciera funcionar la CPU como Dios quiere y manda.
Según tus propios argumentos la GPU deXBOX ONE es suficiente, supongo que ves donde quiero llegar.
Recuerdas?
"Tenemos un sistema balanceado para 12 CU's"
Liberarón potencia de la GPU para dar respuesta al panorama actual, más GPU dependiente, pero sabés que todo eso va cambiar más pronto que tarde.
Está claro que la CPU con las nuevas API's y los nuevos motores no necesitaba más.
La verdad es que la propia cpu de xbox one limita a la gpu, en menor medida que la cpu de ps4 limita a su gpu ya que la diferencia es mayor. DE ahí lo de que estaba balanceado para 12 cus. Meter más cus sin incrementar el rendimiento de cpu hubiera sido poco eficiente, es correcto. Aún asi la cpu de xbox one es bastante poca cosa y está limitando todos los juegos multiplataforma que están rindiendo por debajo de las capacidades que debería rendir, ejemplos han cienes, pero claro limita mucho menos que a la ps4. Por eso el rendimiento de ps4 no es como lo pinta únicamente su gpu. Si ps4 tuviera una cpu que no la limitará entonces si podría rendir cerca del 50% de rendimiento, pero no la tiene lo cual la limita. Meter en un jaguar que tiene capados dos cures para dios sabe que del sistema operativo, es decir que solo dispone de 6 cores una gpu que rinde a 4 tflops es como si le pones a un amd de 4 nucleos perrillero una amd R9 280X. Absurdo complemtamente.
Cyborg_Ninja escribió:Realmente solo hablando de GPU, la de PS4 le podria sacar un maximo de un 40%, no se de donde ha salido ese 50%, para rendir un 50% deberian ser 2 TFlops, al ser 1,8 es alrededor de un 40%.
Quien ha explicado ese gráfico no ha entendido nada ese diagrama
Lo que ves ahí son distribuidores de trabajo de la GPU, todas las GNC por diseño trabajan con dos contextos pero no signigfica que tenga una doble GPu si no que en los tiempos muertos de la gráfica puede hacer otro tipo de tareas sin la perdida de rendimiento de la arquitectura basada en VLIW.
KinderRey escribió:Hombre @isma82 yo no es que lo valore como me de la gana, yo me ciño a lo que dices, que es:Quien ha explicado ese gráfico no ha entendido nada ese diagrama
Lo que ves ahí son distribuidores de trabajo de la GPU, todas las GNC por diseño trabajan con dos contextos pero no signigfica que tenga una doble GPu si no que en los tiempos muertos de la gráfica puede hacer otro tipo de tareas sin la perdida de rendimiento de la arquitectura basada en VLIW.
Donde dices que todas las GCN trabajan con DOS contextos (falso) y lo mezclas con las colas de trabajo, ACE y la doble GPU porque, y esto sí es una valoración mía, no sabes muy bien de lo que hablas. El hábito no hace al monje, como se suele decir.
isma82 escribió:KinderRey escribió:Hombre @isma82 yo no es que lo valore como me de la gana, yo me ciño a lo que dices, que es:Quien ha explicado ese gráfico no ha entendido nada ese diagrama
Lo que ves ahí son distribuidores de trabajo de la GPU, todas las GNC por diseño trabajan con dos contextos pero no signigfica que tenga una doble GPu si no que en los tiempos muertos de la gráfica puede hacer otro tipo de tareas sin la perdida de rendimiento de la arquitectura basada en VLIW.
Donde dices que todas las GCN trabajan con DOS contextos (falso) y lo mezclas con las colas de trabajo, ACE y la doble GPU porque, y esto sí es una valoración mía, no sabes muy bien de lo que hablas. El hábito no hace al monje, como se suele decir.
- Primero: esa cita no es mia.
- Segundo: Me encanta que digas que no se de lo que hablo, pero te parezca normal según que otras cosas bastante mas infumables, pero bueno. vuelvo a insistir en que te leas las diapositivas de AMD sobre los multiples contextos concurrentes. Si se ha equivocado AMD, pues ves y corrigele a ellos
- Tercero Lso aces (la propia transparecencia de amd lo dice) permiten realizar multiples contextos concurrentes. La transparencia explica justamente para que sirvem los ACEs.
- No hay doble GPU, por lo tanto no puedo mezclaro con algo que no existe, segun Microsoft ojo. Que no lo digo yo.
isma82 escribió:KinderRey escribió:Hombre @isma82 yo no es que lo valore como me de la gana, yo me ciño a lo que dices, que es:Quien ha explicado ese gráfico no ha entendido nada ese diagrama
Lo que ves ahí son distribuidores de trabajo de la GPU, todas las GNC por diseño trabajan con dos contextos pero no signigfica que tenga una doble GPu si no que en los tiempos muertos de la gráfica puede hacer otro tipo de tareas sin la perdida de rendimiento de la arquitectura basada en VLIW.
Donde dices que todas las GCN trabajan con DOS contextos (falso) y lo mezclas con las colas de trabajo, ACE y la doble GPU porque, y esto sí es una valoración mía, no sabes muy bien de lo que hablas. El hábito no hace al monje, como se suele decir.
- Primero: esa cita no es mia.
- Segundo: Me encanta que digas que no se de lo que hablo, pero te parezca normal según que otras cosas bastante mas infumables, pero bueno. vuelvo a insistir en que te leas las diapositivas de AMD sobre los multiples contextos concurrentes. Si se ha equivocado AMD, pues ves y corrigele a ellos
- Tercero Los aces (la propia transparecencia de amd lo dice) permiten realizar multiples contextos concurrentes. La transparencia explica justamente para que sirven los ACEs.
- No hay doble GPU, por lo tanto no puedo mezclaro con algo que no existe, según Microsoft ojo. Que no lo digo yo.
KinderRey escribió:Cierto a lo primero. Mis disculpas.
Por otro lado, no se que cosas infumables dices que me parecen normales.
Y por último, te vuelvo a decir, el pdf que pones mil veces es una presentación de la arquitectura GCN sin un roadmap detallado.
papatuelo escribió:@isma82
Muy bonito ese gráfico de UBI, muy muy bonito.
¿Pero que pasó en realidad? Porque no te hace falta gráfico ya tienes el juego en la calle, ¿Tu que juegas a gráficos? Creía que se jugaba a videojuegos.