Hot Chips -Info Actualizada 29/08/2013-

114, 15, 16, 17, 18, 19
dicanio1 escribió:
xcrstnx escribió:no se si estaba puesto pero aca esta la segunda parte del analisis del hot chips por parte de semiaccuratte http://semiaccurate.com/2013/08/30/a-deep-dive-in-to-microsofts-xbox-one-gpu-and-on-die-memory/
no se pero a mi hay unos parrafos donde el autor como que sospecha que ms esconde algo gordo pero no se atreve a aventurar les cito algunas

SemiAccurate knows that there are several important sub-systems in the XBO that are not on the diagrams or in the talk but we are not sure if the 15 count includes them or not.


As far as arrangements go there are four 256b wide banks for a total of 1024b or 128B wide memory. A little math gets you to a speed of 1.59375GHz, lets call it 1.6GHz because the peak bandwidth is unlikely to be 204.00000GBps. Why is this important? What was that GPU frequency again? 800MHz you say? Think that is half of the memory speed for no real reason? If you said yes you are wrong. With the rumored bump of GPU speeds from 800MHz to 831MHz, this may also bump the internal memory bandwidth up by a non-trivial amount. In any case now you know the clocks.

There are two GPU graphics instruction issue blocks and two compute issue blocks on the GOU core proper, something that would not stand out in a similar generation AMD device. It was strongly implied that they have been modified from the basic AMD units but the specifics are not public


How that memory is organized and why there are two very different memory bandwidths quoted is also an interesting tale, and one that makes a lot of technical sense. The banks are organized the same way that the main memory is so any striping or interleaving should be replicated in both memory types for reasons of coder sanity not to mention efficiency. It also maps very nicely to the main GPU’s instruction queue count but this could just be coincidence.


To translate from technical minutia to English, good code = 204GBps, bad code = 109GBps, and reality is somewhere in between. Even if you try there is almost no way to hit the bare minimum or peak numbers. Microsoft sources SemiAccurate talked to say real world code, the early stuff that is out there anyway, is in the 140-150GBps range, about what you would expect. Add some reasonable real-world DDR3 utilization numbers and the total system bandwidth numbers Microsoft threw around at the launch seems quite reasonable. This embedded DRAM is however not a cache in the traditional PC sense, not even close.S|A


interesante lectura



traducción de lo importante...yo solo digo que la propia Microsoft dijo que se guardaban algo y que no era momento de hablar....pero supongo que esto no es importante para algunos


SemiAccurate sabe que existen varios subsistemas importantes del XBO que no están en los diagramas o en la conversación, pero no estamos seguros de si el recuento de 15 de ellos o no incluida.


En cuanto a los arreglos van hay cuatro bancos de ancho 256b para un total de 1024b o 128B amplia memoria. Un poco de matemáticas se llega a una velocidad de 1.59375GHz, permite llamarlo 1.6GHz debido a que el ancho de banda máximo es poco probable que sea 204.00000GBps. ¿Por qué es importante esto? ¿Cuál era esa frecuencia GPU nuevo? 800MHz dices? Piensa que es la mitad de la velocidad de la memoria sin motivo real? Si ha contestado que sí te equivocas. Con el golpe se rumorea de velocidades de GPU de 800MHz a 831MHz, esto también puede golpear el ancho de banda de la memoria interna hasta por una cantidad no trivial. En cualquier caso, ya sabes los relojes.


Hay dos gráficos de operaciones Bloques de emisión GPU y dos computar emitir bloques del GOU base adecuada, algo que no se destacan en un dispositivo de generación de AMD similares. Se implica fuertemente que se han modificado a partir de las unidades básicas de AMD, pero los detalles no son públicos


¿Cómo está organizada la memoria y por qué hay dos anchos de banda de memoria muy diferentes citadas también es una historia interesante, y uno que tiene mucho sentido técnico. Los bancos se organizan de la misma manera que la memoria principal es por lo que cualquier creación de bandas o entrelazado debería ser replicado en ambos tipos de memoria por razones de cordura codificador por no hablar de la eficiencia. También traza muy bien con el recuento cola de instrucciones de la principal GPU pero esto podría ser sólo una coincidencia.


Para traducir de minucias técnicas de Inglés, buen código = 204GBps, mala code = 109GBps, y la realidad está en algún punto intermedio. Incluso si usted intenta casi no hay manera de ir a lo mínimo, o números de punta. Fuentes de Microsoft SemiAccurate hablaron para decir código del mundo real, las cosas pronto que está ahí de todos modos, está en el rango de 140-150 Gbps, con lo que cabría esperar. Agregue un poco de cifras de utilización DDR3 del mundo real razonables y el número total de ancho de banda del sistema Microsoft lanzó en torno a la puesta en marcha parece bastante razonable. Este DRAM incrustada sin embargo, no es una caché en el sentido tradicional de PC, ni siquiera cerca
(ironic mode on) Mi duda es, se jugará en la Juanita al Pong????? tirara bien y si es en pantalla de fosforo verde?? que recuerdos!!!
Como al parecer todo lo tiene mal, hard, soft, computacion nube, servidores, los juegos, el precio, el live, el diseño externo, etc etc etc a y los propios usuarios claro (ironic mode off)

Yo sigo pensando en lo disfrutado en 360/ps3 con un hard de risa (en la actualidad) y pienso en lo visto en la juanita y me importa un pimiento los 1.3 tf, la megapotencia de otros. o los 2/3 años para ver esa megasuperioridad.
Ya que si fuese cierta, con ir con "lerus" y pillarla bastaría ¬_¬

A mi la juanita me da muy buena espina [babas]
Bueno tal vez sea verdad y no soy un buen estratega, lo cierto es que tengo reservada la ps4 pero como dice el compañero cambiar la reserva es un plis, lo que tengo claro es que no me caso con nadie y esto puede que me haga cambiar de opinión.

Un saludo.
un extracto de la entrevista a albert pènello echa por forbes
Forbes - OK, what about the next-gen Ultra-HDTVs are just now being rolled out, is the Xbox One ready for them?

Penello - Yes. The Xbox One ships with 4K support. In fact, we’re shipping it with an HDMI 1.4 cable included that can handle 4K.

Forbes - As far whether certain content is shown at 4K or not, is that a decision that’s in the developer’s hands?

Penello - Developers can always choose what to do with resolution. When the Xbox 360 shipped there was a game that supported 1080p even though few people had TVs of that resolution at the time. We’re doing the same thing here. If they want to use it, they can, and the Xbox can handle it.


traduccion by google
Forbes - Bueno, ¿y los de nueva generación Ultra-HDTV están ahora siendo desplegado, es la Xbox Uno listo para ellos?

Penello - Sí. La Xbox One se suministra con soporte 4K. De hecho, estamos enviando con un cable HDMI 1.4 incluido que puede manejar 4K.

Forbes - Por lo tanto cierto contenido se muestra en 4K o no, es que una decisión que está en manos de los desarrolladores?

Penello - Los desarrolladores siempre pueden elegir qué hacer con la resolución. Cuando la Xbox 360 había enviado un juego que con el apoyo de 1080p a pesar de que pocas personas tenían televisores de dicha resolución en el momento. Estamos haciendo lo mismo aquí. Si quieren usarlo, se puede, y la Xbox puede manejarlo.


http://www.forbes.com/sites/matthickey/2013/08/30/pax-microsofts-albert-penello-on-xbox-ones-creation-cable-cutters-a-launch-date-and-ben-affleck-as-batman/
Cada vez que alguien pone un traducción de Google alguien mata a un gatito.
Natsu escribió:Cada vez que alguien pone un traducción de Google alguien mata a un gatito.


es verdad xD pero es que en todos los post que pongo algo en ingles alguien me reclama que lo traduzca y la verdad podria pero me da una flojera hacerlo xD por eso tiro de google para hacerlo algo mas entendible ;)
Forzimbras escribió:Si se confirmara lo de las dos CPU's, entonces ya podríamos decir que es más bestia parda que PS4 en términos de potencia bruta, ¿no?


No.

En el caso MUY remoto de que llevase 2 gpu's, habría que ver que potencia tienen las mismas y que rendimiento consiguen, porque dos gpu's de 1TF no significan que se tenga una potencia de 2TF.
Como está bastante entretenido, he traducido (disculpad los errores) uno de los enlaces que encontré unas pocas páginas atrás.



1. DirectX 11.2 son exclusividad de Windows 8.1 y Xbox One. Fuente

2. Pero en el pasado Hot Chips, la GPU integrada en la APU del SOC de Xbox One que Microsoft nos enseñó usa DirectX 11.1+. Fuente

3. Un vídeo subido a Youtube por la Official Xbox Magazine nos enseñaba el "unboxing" de la Xbox One. En él se puede ver un parche tapando una de las esquinas de la Xbox One. El autor insinua que son las características de la consola que Microsoft aun no quiere enseñar. Fuente

4. No hace mucho, la web SemiAccurate a publicado un artículo sobre la GPU de Xbox One y el pasado evento Hot Chips. En dicho artículo se puede leer: "SemiAccurate sabe que en la Xbox One hay un importante sub-sistema que no aparece en los diagramas o se menciona en la exposición, aunque no estamos seguros si están incluidos, o no, en la cuenta de los 15 cores". Fuente

5. En una cuenta LinkedIn de un empleado de AMD (AMD GPU Design Verification Engineer), podemos encontrar que ha estado trabajando en: Graphics Core IP Design Verification, APU/DGPU Xbox One, Playstation 4. Fuente

6. En realidad, el tamaño del SOC de Xbox One es mas grande de lo que Microsoft nos ha contado. Fuente

7. Durante una presentación de AMD proyectaron una transparencia que decía APU + dGPU serán la tendencia en el futuro. APU es un término usado por AMD para referirse a la combinación de CPU + GPU. Es lo que Xbox One y PlayStation 4 están usando. Fuente

8. Algunos desarrolladores están diciendo que existirán diferencias entre las consolas de la próxima generación. Desarrolladores de EA (Need for Speed), Ubisoft y Respawn Entertainment han llegado a afirmar que los gráficos de Xbox One estarán a la par con PC. Fuente


Y aprovecho para declararme creyente XD
Si finalmente llevase dos gpu y no fuese mas potente, entonces ya si que seria para tirarlos a la hoguera xD
Es mas, con el dinero que se han gastado en amd, cualquiera cosa que no sea, no ya no mas potencia, sino misma eficiencia, con mas facilidad de reducir costes, tambien seria para tirarlos a la hoguera xD
Absolute Terror escribió:
Forzimbras escribió:Si se confirmara lo de las dos CPU's, entonces ya podríamos decir que es más bestia parda que PS4 en términos de potencia bruta, ¿no?


No.

En el caso MUY remoto de que llevase 2 gpu's, habría que ver que potencia tienen las mismas y que rendimiento consiguen, porque dos gpu's de 1TF no significan que se tenga una potencia de 2TF.


Llevando 2 GPU no sería más potente? Claro claro...
laleshe escribió:
Absolute Terror escribió:
Forzimbras escribió:Si se confirmara lo de las dos CPU's, entonces ya podríamos decir que es más bestia parda que PS4 en términos de potencia bruta, ¿no?


No.

En el caso MUY remoto de que llevase 2 gpu's, habría que ver que potencia tienen las mismas y que rendimiento consiguen, porque dos gpu's de 1TF no significan que se tenga una potencia de 2TF.


Llevando 2 GPU no sería más potente? Claro claro...


Aunque llevase dos 9970 en Crossfire, seguiría siendo inferior para Absolute Terror.
Selicos escribió:Si finalmente llevase dos gpu y no fuese mas potente, entonces ya si que seria para tirarlos a la hoguera xD
Es mas, con el dinero que se han gastado en amd, cualquiera cosa que no sea, no ya no mas potencia, sino misma eficiencia, con mas facilidad de reducir costes, tambien seria para tirarlos a la hoguera xD


Bueno pues depende amigo de como se le vea, quizás las 2 GPU no se traduzca directamente a más potencia pero si ha rendimiento, pareciera que mayor potencia debería ser mayor rendimiento pero eso no es del todo cierto amigo, ya que sí esa potencia no se alimenta con todos los watts ahí queda

Yo no se sí en el PS3 pasaría alguna vez, pero en mi 360 en algunos juegos con muchas cosas en pantalla como el dead rising 2 alguna veces he experimentado mientras juego una lentitud en pantalla e imagino que es por la carga gráfica, yo intuyo que con una doble GPU esto en teoría no debería pasar por ser más eficiente o por rendir más estaría bien y si ese es el caso de ONE bienvenido sea

Yo pienso que esto de la potencia es como los coches que marcan una velocidad tope que se yo de 250 km/h, pero cuando vas por 180km/h notas que el carro como que no da más o necesitas una autopista mucho más larga y más tiempo

A no ser que en el caso que existiera la doble GPU en la ONE se deba a la entrada HDMI (que no sólo es para TV también se puede conectar cualquier aparato con salida hdmi como una misma xbox 360)
xjhoan escribió:
Selicos escribió:Si finalmente llevase dos gpu y no fuese mas potente, entonces ya si que seria para tirarlos a la hoguera xD
Es mas, con el dinero que se han gastado en amd, cualquiera cosa que no sea, no ya no mas potencia, sino misma eficiencia, con mas facilidad de reducir costes, tambien seria para tirarlos a la hoguera xD


Bueno pues depende amigo de como se le vea, quizás las 2 GPU no se traduzca directamente a más potencia pero si ha rendimiento, pareciera que mayor potencia debería ser mayor rendimiento pero eso no es del todo cierto amigo, ya que sí esa potencia no se alimenta con todos los watts ahí queda

Yo no se sí en el PS3 pasaría alguna vez, pero en mi 360 en algunos juegos con muchas cosas en pantalla como el dead rising 2 alguna veces he experimentado mientras juego una lentitud en pantalla e imagino que es por la carga gráfica, yo intuyo que con una doble GPU esto en teoría no debería pasar por ser más eficiente o por rendir más estaría bien y si ese es el caso de ONE bienvenido sea

Yo pienso que esto de la potencia es como los coches que marcan una velocidad tope que se yo de 250 km/h, pero cuando vas por 180km/h notas que el carro como que no da más o necesitas una autopista mucho más larga y más tiempo

A no ser que en el caso que existiera la doble GPU en la ONE se deba a la entrada HDMI (que no sólo es para TV también se puede conectar cualquier aparato con salida hdmi como una misma xbox 360)

Yo esque cuando me refiero a potencia, siempre hablo de potencia rendimiento, es decir, mas potencia, con igual o mas eficiencia, porque sino esta mal parido.
No hablamos de un particular que pueda montarse una torre de mejor o peor forma, estamos hablando de diseñadores de microsoft, gente que gana pasta, y que se supone que son de lo mejorcito en lo suyo
Me he ido un poco por las ramas xD, con esto lo que quiero decir, esque si microsoft ha montando toda esta historia de dos gpus para ganar en rendimiento, pero no en potencia, deberian dejar el mundillo xD
Riwer escribió:Eso sigue estando, pero nadie sabe a que se refiere con "DGPU".


DirectX GPU, tiene todo el sentido del mundo porque Microsoft ha adaptado al 100% el SOC a su propia librería gráfica. Es de sentido común, para que quieres una GPU bruta e ineficiente para la que tienes que adaptar lo drivers, cuando puedes integrar el driver en Direct X y que sea la GPU la que se adapte a la forma de funcionar de tus librerías.

Si me hubieran contratado para hacer el SOC de una consola de Microsoft es lo primero que habría propuesto, y no soy ningún genio.
radastan escribió:
Riwer escribió:Eso sigue estando, pero nadie sabe a que se refiere con "DGPU".


DirectX GPU, tiene todo el sentido del mundo porque Microsoft ha adaptado al 100% el SOC a su propia librería gráfica. Es de sentido común, para que quieres una GPU bruta e ineficiente para la que tienes que adaptar lo drivers, cuando puedes integrar el driver en Direct X y que sea la GPU la que se adapte a la forma de funcionar de tus librerías.

Si me hubieran contratado para hacer el SOC de una consola de Microsoft es lo primero que habría propuesto, y no soy ningún genio.

Pero entonces estariamos hablando de DXGPU, vamos, yo por lo menos siempre he entendido DX la siglas de direct X.
Exacto a eso me refiero yo también...potencia-rendimiento,y de momento realmente es difícil pronunciarse,pero también viendo los juegos todo indica qiue de momento Microsoft lo a vuelto a hacer y en rendimiento-potencia es superior...

Veremos cuando estén los juegos ya a la venta,si es como parece..
Absolute Terror escribió:
Forzimbras escribió:Si se confirmara lo de las dos CPU's, entonces ya podríamos decir que es más bestia parda que PS4 en términos de potencia bruta, ¿no?


No.

En el caso MUY remoto de que llevase 2 gpu's, habría que ver que potencia tienen las mismas y que rendimiento consiguen, porque dos gpu's de 1TF no significan que se tenga una potencia de 2TF.


Evidentemente seria superior, puesto que en la hotchips se sabe que el dato de la GPU es de 1.31Tflops, junto con el resto de arquitectura, en terminos brutos seria superior.
Tienen bastante mas mas rendimiento 2 graficas de 1.3Tflops en paralelo que una de 1.8.
A mi lo que me resulta curioso es que se diferencie la alimentación de la CPU y de la GPU en el SOC, incluso a nivel externo. Tenía entendido que las APU tenían alimentación única, nunca te acostarás sabiendo algo nuevo.

Imagen
radastan escribió:A mi lo que me resulta curioso es que se diferencie la alimentación de la CPU y de la GPU en el SOC, incluso a nivel externo. Tenía entendido que las APU tenían alimentación única, nunca te acostarás sabiendo algo nuevo.

Imagen

Quizas esten bien entendido, y las apus tengan alimentacion unica, esta apu es un modelo muy custom, por lo que vete tu a saber las diferencias que tendra de una apu normal xD De hay creo que salen todos estas especulaciones de la gente, al no entender muy bien el soc.
radastan escribió:A mi lo que me resulta curioso es que se diferencie la alimentación de la CPU y de la GPU en el SOC, incluso a nivel externo. Tenía entendido que las APU tenían alimentación única, nunca te acostarás sabiendo algo nuevo.

Imagen



Tal vez por eso pueden permitirse en xbox one no mantener una proporcion 2:1 en frecuencias de cpu y gpu, si no el anuncio del incremento de frecuencia de gpu, hubiera llevado consigo una de cpu de 1.6 a 1.706.

Pero se "presupone" que seria de 1.6 como la de PS4, o segun los rumores de 1.9 dejando de lado la frecuencia de GPU tambien.
Por más que busco en las APU de AMD no hay nada parecido a la alimentación del SOC de Xbox One. Es la primera vez en mi vida que veo una APU con alimentación diferenciada para la parte de la CPU y de la GPU.

No quiero confirmar nada, ni decir nada en concreto, pero la realidad es:

- Hay una línea de alimentación diferenciada en el SOC para la GPU
- El disipador es salvaje de grande, por muy silenciosa que se quiera hacer la consola
- No cuadra NADA ese tipo de alimentación con una APU, es más propia de un encapsulado de CPU+GPU (un encapsulado, dos chips en el mismo)

Deseando que llegue Octubre para que AMD nos pueda aclarar muchas cosas.
radastan escribió:
Riwer escribió:Eso sigue estando, pero nadie sabe a que se refiere con "DGPU".


DirectX GPU, tiene todo el sentido del mundo porque Microsoft ha adaptado al 100% el SOC a su propia librería gráfica. Es de sentido común, para que quieres una GPU bruta e ineficiente para la que tienes que adaptar lo drivers, cuando puedes integrar el driver en Direct X y que sea la GPU la que se adapte a la forma de funcionar de tus librerías.

Si me hubieran contratado para hacer el SOC de una consola de Microsoft es lo primero que habría propuesto, y no soy ningún genio.


No habia visto tu respuesta.
Y ahora que lo dices... No hace mucho que estuvo la noticia de que un ingeniero de Microsoft programo ciertos drivers AMD para hacer la prueba de 12k a 60FPS con graficas 7970.
noticia_subiendo-la-apuesta-juegos-a-resolucion-12k-y-60hz_22179

Tal vez pruebas de driver para xbox one?
No se, entorno Windows 8, graficas AMD, programacion especifica de drivers por Microsoft.... cuanto menos sospechoso xD

radastan escribió:Por más que busco en las APU de AMD no hay nada parecido a la alimentación del SOC de Xbox One. Es la primera vez en mi vida que veo una APU con alimentación diferenciada para la parte de la CPU y de la GPU.

No quiero confirmar nada, ni decir nada en concreto, pero la realidad es:

- Hay una línea de alimentación diferenciada en el SOC para la GPU
- El disipador es salvaje de grande, por muy silenciosa que se quiera hacer la consola
- No cuadra NADA ese tipo de alimentación con una APU, es más propia de un encapsulado de CPU+GPU (un encapsulado, dos chips en el mismo)

Deseando que llegue Octubre para que AMD nos pueda aclarar muchas cosas.


Otros rumores tambien apuntaban a APU + una gpu discreta.

Si esque el tamaño y refrigeracion que tiene el sistema no tiene sentido para la potencia que se vende.
laleshe escribió:
Absolute Terror escribió:
Forzimbras escribió:Si se confirmara lo de las dos CPU's, entonces ya podríamos decir que es más bestia parda que PS4 en términos de potencia bruta, ¿no?


No.

En el caso MUY remoto de que llevase 2 gpu's, habría que ver que potencia tienen las mismas y que rendimiento consiguen, porque dos gpu's de 1TF no significan que se tenga una potencia de 2TF.


Llevando 2 GPU no sería más potente? Claro claro...


Ni seria ni dejaría de serlo, dependería de que GPU's fuesen, que potencia tuviesen cada una y que rendimiento sacasen funcionando juntas.

El hecho de tener 2 GPU's no significa que estas tengan mejor rendimiento que una. Esto es algo mil veces visto en PC en donde dos GPU's rinden por debajo de una.

Tienen bastante mas mas rendimiento 2 graficas de 1.3Tflops en paralelo que una de 1.8.


En Hotchips hablan de una GPU a 1.3 después de la pertinente subida de reloj. De la supuesta segunda GPU no sabemos ni si realmente existe y mucho menos su potencia.

Si esque el tamaño y refrigeracion que tiene el sistema no tiene sentido para la potencia que se vende.


Tiene sentido por la eSRAM y por el hecho de que MS querra cubrirse bien las espaldas para evitar otro fiasco como el de las luces rojas.
Erchacho está baneado por "Flames varios - The End"
Absolute Terror escribió:
laleshe escribió:
Absolute Terror escribió:Si se confirmara lo de las dos CPU's, entonces ya podríamos decir que es más bestia parda que PS4 en términos de potencia bruta, ¿no?


No.

En el caso MUY remoto de que llevase 2 gpu's, habría que ver que potencia tienen las mismas y que rendimiento consiguen, porque dos gpu's de 1TF no significan que se tenga una potencia de 2TF.


Llevando 2 GPU no sería más potente? Claro claro...


Ni seria ni dejaría de serlo, dependería de que GPU's fuesen, que potencia tuviesen cada una y que rendimiento sacasen funcionando juntas.

El hecho de tener 2 GPU's no significa que estas tengan mejor rendimiento que una. Esto es algo mil veces visto en PC en donde dos GPU's rinden por debajo de una.

Tienen bastante mas mas rendimiento 2 graficas de 1.3Tflops en paralelo que una de 1.8.


En Hotchips hablan de una GPU a 1.3 después de la pertinente subida de reloj. De la supuesta segunda GPU no sabemos ni si realmente existe y mucho menos su potencia.

Si esque el tamaño y refrigeracion que tiene el sistema no tiene sentido para la potencia que se vende.




Hay algo que te guste de la ONE?????? ¬_¬ ¬_¬ ¬_¬

Mejor sin ofender quédate en el otro foro que tus post no aportan nada.
Yo no creo que lleve dos GPU pero si llevara una con las mismas caracteristicas mas la de la APU si seria una maquina considerablemente mas potente que PS4.

Realmente creo que no estas en lo correcto en tu planteamiento. Dos GPU si pueden rendir tanto o mejor que una monogpu con los mismos Tflops, dos 7770 rinden casi igual que una 7870.

El problema viene en que el sistema crossfire & sli suelen dar mas problemas que una mono-GPU en determinados juegos.
Xsato7 está baneado hasta el 12/1/2025 10:42 por "flames"
De verdad creeis que a estas alturas, si One llevara 3 gpu y fuera como minimo tan potente como ps4, Microsft no lo hubiera anunciado? No tiene sentido alguno, si tienes algo asi lo dices porque te estas jugando muchas reservas.
Ejemplo facil y rapido:

GTX 560 TI : 1.3Tflops
GTX 680: 3.1Tflops

2 GTX 560 TI >= GTX 680

Con eso lo digo todo, y quien dude que tire de benchmarks.
Erchacho escribió:Hay algo que te guste de la ONE?????? ¬_¬ ¬_¬ ¬_¬

Mejor sin ofender quédate en el otro foro que tus post no aportan nada.


De la One no se, porque ahora mismo solo se están hablando de castillos en el aire.

Pero si quieres digo que si, que la One va a llevar 2 GPU's y que va a ser mas potente que los PC's de la NASA, si eso te deja mas tranquilo.

Yo no creo que lleve dos GPU pero si llevara una con las mismas caracteristicas mas la de la APU si seria una maquina considerablemente mas potente que PS4.


Pero es que seguimos sin saber que características tendría esa supuesta segunda GPU.

Realmente creo que no estas en lo correcto en tu planteamiento. Dos GPU si pueden rendir tanto o mejor que una monogpu con los mismos Tflops, dos 7770 rinden casi igual que una 7870.


0,7 teraflops x 2 = 1,4 teraflops (teóricos) vs 1 teraflop y tu mismo dices que rinden casi igual. Como ves se sigue perdiendo una gran potencia teorica por el camino para conseguir igualar. No se puede sumar la potencia de dos GPU's y decir que esa es la potencia total porque el rendimiento nunca es el mismo.

De ahí que habría que ver la potencia de esa supuesta segunda GPU y su rendimiento funcionando en conjunción con la APU para poder decir quien tiene mas potencia efectiva.
jayco escribió:Doble GPU [+risas] [+risas] [+risas] [+risas] [+risas] [carcajad] [carcajad] [carcajad] [carcajad] [carcajad] [carcajad] [carcajad] [carcajad]


jayco escribió:Dos GPU??? [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto]


Solo en EOL.


¿Que tienes?, ¿5 años?
El primer mensaje lo he ignorado pero ya con este está bien la cosa...
No creo que haya necesidad de aguantar estas tonterías en un hilo donde se están discutiendo cuestiones principalmente técnicas.
Erchacho está baneado por "Flames varios - The End"
Absolute Terror escribió:
Erchacho escribió:Hay algo que te guste de la ONE?????? ¬_¬ ¬_¬ ¬_¬

Mejor sin ofender quédate en el otro foro que tus post no aportan nada.


De la One no se, porque ahora mismo solo se están hablando de castillos en el aire.

Pero si quieres digo que si, que la One va a llevar 2 GPU's y que va a ser mas potente que los PC's de la NASA, si eso te deja mas tranquilo.

Yo no creo que lleve dos GPU pero si llevara una con las mismas caracteristicas mas la de la APU si seria una maquina considerablemente mas potente que PS4.


Pero es que seguimos sin saber que características tendría esa supuesta segunda GPU.

Realmente creo que no estas en lo correcto en tu planteamiento. Dos GPU si pueden rendir tanto o mejor que una monogpu con los mismos Tflops, dos 7770 rinden casi igual que una 7870.


0,7 teraflops x 2 = 1,4 teraflops (teóricos) vs 1 teraflop y tu mismo dices que rinden casi igual. Como ves se sigue perdiendo una gran potencia teorica por el camino para conseguir igualar. No se puede sumar la potencia de dos GPU's y decir que esa es la potencia total porque el rendimiento nunca es el mismo.

De ahí que habría que ver la potencia de esa supuesta segunda GPU y su rendimiento funcionando en conjunción con la APU para poder decir quien tiene mas potencia efectiva.


Cuando te leo, te doy las gracias por que consigues hacerme reír !!!! [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto]
Una pena..2 días tranquilos y hoy otra vez fonboys entran a soltar lo de siempre...por cierto la consola que es para jugar o para que...o es que en juegos no hay discusión alguna..
Erchacho está baneado por "Flames varios - The End"
dicanio1 escribió:Una pena..2 días tranquilos y hoy otra vez fonboys entran a soltar lo de siempre...por cierto la consola que es para jugar o para que...o es que en juegos no hay discusión alguna..


El problema es que como dejes la puerta de Mordor un par de segundos abierta, te entran como si fueran moscas!!!!!

PD: Todavía no entiendo que hace un tío entrando en un foro de la ONE cuando a la pregunta ¿Te gusta algo de la ONE?, su respuesta es NO SE !!!!! PATÉTICO.
gomados está baneado por "clon de usuario baneado"
Lo que esta claro es que este mes vamos a ver que tiene la Xbox, ya que termina la no revelacion de secretos o acuerdo de confidencialidad, justo cuando AMD va a presentar su nuevo buque insignia las Famosas Volcanic Island con GCN 2.0, sera lo que lleve la One?

Hay que recordar que no tenemos datos reales de la PS4 ya que no son oficiales, igual Sony tiene algun otro As!!!

Sea como fuere este mes saldremos de dudas, mientras tanto a soñar y especular...
Erchacho está baneado por "Flames varios - The End"
gomados escribió:Lo que esta claro es que este mes vamos a ver que tiene la Xbox, ya que termina la no revelacion de secretos o acuerdo de confidencialidad, justo cuando AMD va a presentar su nuevo buque insignia las Famosas Volcanic Island con GCN 2.0, sera lo que lleve la One?

Hay que recordar que no tenemos datos reales de la PS4 ya que no son oficiales, igual Sony tiene algun otro As!!!

Sea como fuere este mes saldremos de dudas, mientras tanto a soñar y especular...


Eso mismo hago yo y por ahora no hay ni un solo juego de PS4 que supere gráficamente a la ONE. Muchos caballos la PS4 y después no tienen ruedas,,,,,,,,,,,,,,, XD XD XD XD
gomados escribió:Lo que esta claro es que este mes vamos a ver que tiene la Xbox, ya que termina la no revelacion de secretos o acuerdo de confidencialidad, justo cuando AMD va a presentar su nuevo buque insignia las Famosas Volcanic Island con GCN 2.0, sera lo que lleve la One?

Hay que recordar que no tenemos datos reales de la PS4 ya que no son oficiales, igual Sony tiene algun otro As!!!

Sea como fuere este mes saldremos de dudas, mientras tanto a soñar y especular...



Tiene todo el sentido del mundo,si la Xone o la ps4 llevarán algo que aún no a sido presentado por AMD,lo más normal es que nadie pudiera revelar algo sin que antes AMD hiciera el anuncio de sus nuevas gráficas,ect..
Mmmmm los devkits de XBOX ONE llevan nvidia gtx 780 no?

http://www.cinemablend.com/games/www.ci ... 56737.html

Estamos hablando de una gráfica de 4 teraflops de potencia.. ¿4 teraflops para desarrollar en una máquina de 1,3???

Todos sabemos que los devkits siempre llevan potencia extra para facilitar el desarrollo, permitir la ejecución de herramientas de debuggeo simultaneamente a la ejecución de los juegos, pero repito: ¿4 teraflops para acabar con 1,3?

¿Estamos hablando de que ONE finalmente llegaría a los 2,5 teraflops que EPIC demandaba para la new generation?

Personalmente me parece mas lógico poner una gráfica de 4 teraflops para una consola de 2,5.
Buffff..enserio que salga ya las malditas consolas.. [+risas]
Vamos a ver, no nos hagamos pjas mentales y tengamos la cabeza serena: yo no veo lógico tener una doble GPU. Para eso haz una GPU custom al 100%, con más de todo, pero veo un jaleo gordísimo a dos GPU accediendo a la eSRAM.

No tiene sentido matar el ancho de banda de la eSRAM con un doble acceso de GPU.

Así que no os hagáis ilusiones, no tiene sentido, pero si le veo más sentido a que algo hay que no nos hayan dicho sobre la GPU y que justifique que el SOC tenga alimentación independiente para ella.
gomados está baneado por "clon de usuario baneado"
Yo sinceramente no me creo que Xbox saque una maquina con 1.3 Tflops y si los saca tienen que ser los mas optimizados de mundo para ser equivalentes a 2 Tflops ya que sobre el papel si la consola no es puntera en graficos, tiene que durar unos 8 años. es decir si ahora es regulera en 8 años un movil de gama alta sera mas potente que la One, por lo tanto es normal como ya digeron,que no optarian por la repera pero que menos que una gama alta actual de Gpu, para que les dure esos 8 añitos de vida de una forma digna.
Chifrinillo escribió:Mmmmm los devkits de XBOX ONE llevan nvidia gtx 780 no?

http://www.cinemablend.com/games/www.ci ... 56737.html

Estamos hablando de una gráfica de 4 teraflops de potencia.. ¿4 teraflops para desarrollar en una máquina de 1,3???

Todos sabemos que los devkits siempre llevan potencia extra para facilitar el desarrollo, permitir la ejecución de herramientas de debuggeo simultaneamente a la ejecución de los juegos, pero repito: ¿4 teraflops para acabar con 1,3?

¿Estamos hablando de que ONE finalmente llegaría a los 2,5 teraflops que EPIC demandaba para la new generation?

Personalmente me parece mas lógico poner una gráfica de 4 teraflops para una consola de 2,5.


Aun con esa imagen? esque queda alguien aun que no sabe que esa imagen es el caso especifico del juego lococycle? por problemas del juego?
Por dios.
Xsato7 está baneado hasta el 12/1/2025 10:42 por "flames"
Erchacho escribió:
gomados escribió:Lo que esta claro es que este mes vamos a ver que tiene la Xbox, ya que termina la no revelacion de secretos o acuerdo de confidencialidad, justo cuando AMD va a presentar su nuevo buque insignia las Famosas Volcanic Island con GCN 2.0, sera lo que lleve la One?

Hay que recordar que no tenemos datos reales de la PS4 ya que no son oficiales, igual Sony tiene algun otro As!!!

Sea como fuere este mes saldremos de dudas, mientras tanto a soñar y especular...


Eso mismo hago yo y por ahora no hay ni un solo juego de PS4 que supere gráficamente a la ONE. Muchos caballos la PS4 y después no tienen ruedas,,,,,,,,,,,,,,, XD XD XD XD


Sera tu opinion porque Infamous no luce peor que Ryse, Driveclub tras su subidon grafico, luce mejor que Forza 5, eso si a 30fps de momento, y Killzone graficamente tambien me parece superior a Titanfall.
Xsato7 escribió:
Erchacho escribió:
gomados escribió:Lo que esta claro es que este mes vamos a ver que tiene la Xbox, ya que termina la no revelacion de secretos o acuerdo de confidencialidad, justo cuando AMD va a presentar su nuevo buque insignia las Famosas Volcanic Island con GCN 2.0, sera lo que lleve la One?

Hay que recordar que no tenemos datos reales de la PS4 ya que no son oficiales, igual Sony tiene algun otro As!!!

Sea como fuere este mes saldremos de dudas, mientras tanto a soñar y especular...


Eso mismo hago yo y por ahora no hay ni un solo juego de PS4 que supere gráficamente a la ONE. Muchos caballos la PS4 y después no tienen ruedas,,,,,,,,,,,,,,, XD XD XD XD


Sera tu opinion porque Infamous no luce peor que Ryse, Driveclub tras su subidon grafico, luce mejor que Forza 5, eso si a 30fps de momento, y Killzone graficamente tambien me parece superior a Titanfall.


Yo creo que no...

Sobre killzone parece que si, a ver si muestran más. Pero en lo del forza 5 te has columpiado un poco.

Un saludo.
gomados está baneado por "clon de usuario baneado"
Calidad grafica desde mi punto de vista son kilzone y driveclub, pero los 30fps a mi no me molan sobre todo los del driveclub no concibo un juego de conduccion a 30fps,igual que tambien no me molan los 30 del dead rising. Pero pienso sinceramente que al ser juegos betas no van a lucir de esta manera. Así que prefiero ver las versiones finales para opinar.
Erchacho está baneado por "Flames varios - The End"
EDITADO.
Editado por SCREAM25. Razón: Flame.
Vaya forma de autoconvencerse macho!!! [carcajad] Ahora Driveclub se ve mejor que Forza 5....y Titanfall no es para tanto claro que sí hombre [+risas] [+risas] Joder colega, llega a ser un juego exclusivo de Sony y tenemos a todos los medios y sonyers gustándose a diario.......en fin, para mear y no echar gota.

Se le ha olvidado decir que Knack será mucho mejor que Dead Rising 3 y Halo 5 juntos [qmparto]
Xsato7 está baneado hasta el 12/1/2025 10:42 por "flames"
EDITADO.
Editado por SCREAM25. Razón: Faltas de respeto.
EDITADO.
Editado por SCREAM25. Razón: Desviar el Hilo
(mensaje borrado)
Erchacho está baneado por "Flames varios - The End"
gomados está baneado por "clon de usuario baneado"
Lo dicho si tubiera que quedarme con una beta de conduccion, me quedaria con la de forza sobre todo por el tema de los fps, aun reconociendo que tiene mas calidad grafica driveclub, iluminacion en tiempo real,tiempo cambiante etc...tambien hay que decir que forza es el juego de Xbox driveclub no es el de sony seria Gt.

Con los de primera persona me quedaria con Titanfall, aún no sorprendiendome graficamente en absoluto, (me dicen que es de 360 y me lo creo), la saga illzone a mi nunca me gusto ya que preferi BT3 o Call sobre todo por que es a lo que juegan mis colegas, killzone esta claro que graficamente es una pasada.

Conclusion los graficos no es lo importante, son los juegos y de momento la One de salida es mejor, a partir de abril de 2014 empezaran los bombazos de Sony y se me caera la baba.
925 respuestas
114, 15, 16, 17, 18, 19