Hablemos del interior de Xbox One

¿El PIC16F84A no se usaba por los piratillas del Canal Satélite? [carcajad]

La verdad que programar microcontroladores no es muy entretenido. Para ver el resultado palpable tienes que programarlo físicamente (que es un coñazo) y luego ponerlo en el aparato al que va destinado y ponerlo en marcha.

Prefiero el Z-80 y V9938, es más entretenido y directo ;)
Urian está baneado del subforo por "Troll"
Zokormazo escribió:
f5inet escribió:ojo, que no estoy diciendo que XboxONE lleve esto (o al menos, no lo estoy diciendo TODAVIA), simplemente te estoy rebatiendo que ES POSIBLE usar memoria NAND Flash como RAM.


Las Flash son NVRAM, por lo tanto, son RAM.

Otra cosa es poder usarlos como memoria para acumular los datos para poder computarlos. En eso los NAND no son precisamente la mejor eleccion.

Y otra cosa distinta seria usarlo de cache a un nivel alto. En eso, supondra mejorar frente a cualquier memoria mas lenta que ella, como por ejemplo el disco de 5400rpm que monta la consola.

Eso si es un uso viable (si no se esta usando la NAND para nada mas en ese momento) y eficiente.


RAM No Volatil, pero esto no significa que haga la misma función que la memoria RAM.

En ciertos mecanismos donde no es necesario el ancho de banda de la RAM para funcionar, es posible conectar una NAND Flash al procesador y que esta haga de memoria RAM para el mismo.
darksch escribió:¿El PIC16F84A no se usaba por los piratillas del Canal Satélite? [carcajad]


Es un clasico de proyectos de electronica de iniciacion/universidad etc.

Urian escribió:
Zokormazo escribió:
f5inet escribió:ojo, que no estoy diciendo que XboxONE lleve esto (o al menos, no lo estoy diciendo TODAVIA), simplemente te estoy rebatiendo que ES POSIBLE usar memoria NAND Flash como RAM.


Las Flash son NVRAM, por lo tanto, son RAM.

Otra cosa es poder usarlos como memoria para acumular los datos para poder computarlos. En eso los NAND no son precisamente la mejor eleccion.

Y otra cosa distinta seria usarlo de cache a un nivel alto. En eso, supondra mejorar frente a cualquier memoria mas lenta que ella, como por ejemplo el disco de 5400rpm que monta la consola.

Eso si es un uso viable (si no se esta usando la NAND para nada mas en ese momento) y eficiente.


RAM No Volatil, pero esto no significa que haga la misma función que la memoria RAM.

En ciertos mecanismos donde no es necesario el ancho de banda de la RAM para funcionar, es posible conectar una NAND Flash al procesador y que esta haga de memoria RAM para el mismo.


Es lo que pretendia decir. Es un Non Volatile Random Access Memory, lo que no significa que pueda reemplazar a DDR/GDDR.
Urian está baneado del subforo por "Troll"
darksch escribió:¿El PIC16F84A no se usaba por los piratillas del Canal Satélite? [carcajad]

La verdad que programar microcontroladores no es muy entretenido. Para ver el resultado palpable tienes que programarlo físicamente (que es un coñazo) y luego ponerlo en el aparato al que va destinado y ponerlo en marcha.

Prefiero el Z-80 y V9938, es más entretenido y directo ;)


No son lo mismo, yo hice un proyecto de pseudo-ordenador de 8 bits con un Z80 y un PIC como coprocesador conectado a una interfaz RF. El PIC se encargaba de ir dibujando en pantalla a la velocidad que haz de electrones recorría la pantalla.

Muy, pero que muy primitivo. XD
Polyteres escribió:Yo me lo estoy pasando pipa leyéndoos [sonrisa] [sonrisa] [sonrisa] .

Un saludo.


Cuidado con las pipas que no seras el primero que se le clava una cascara en el paladar :P

Entre las pipas, la suegra y el perro no se como te da tiempo a leer todo esto ;)
Hablemos del interior de los frutos secos
Urian escribió:
darksch escribió:¿El PIC16F84A no se usaba por los piratillas del Canal Satélite? [carcajad]

La verdad que programar microcontroladores no es muy entretenido. Para ver el resultado palpable tienes que programarlo físicamente (que es un coñazo) y luego ponerlo en el aparato al que va destinado y ponerlo en marcha.

Prefiero el Z-80 y V9938, es más entretenido y directo ;)


No son lo mismo, yo hice un proyecto de pseudo-ordenador de 8 bits con un Z80 y un PIC como coprocesador conectado a una interfaz RF. El PIC se encargaba de ir dibujando en pantalla a la velocidad que haz de electrones recorría la pantalla.

Muy, pero que muy primitivo. XD

No me refería a eso.

http://www.msx.org/

;)
Chifrinillo escribió:Hablemos del interior de los frutos secos

Mejor del interior de One ;)
Polyteres escribió:Buenas gente. De verdad sigo sin explicarme el porqué de tanto revuelo, es q estoy flipando en serio [carcajad] [carcajad] [carcajad] . Cuantas veces se ha hablado aquí de los 2 command proccessors para gráficos?. Esto parece q es ciclíco. Podríais decirme la diferencia entre la entrevista de los arquitectos de XboxOne en DF y la conferencia HotChip, y esto "nuevo"?. Lo mejor de todo es q no ha cambiado nada desde lo q sabíamos entonces pq no se ha desvelado nada nuevo, se dice exactamente lo mismo.

Por otro lado, estáis confundiendo muchas cosas con respecto a cómo funciona una GPU. Yo me lo estoy pasando pipa leyéndoos [sonrisa] [sonrisa] [sonrisa] .

Un saludo.


Sería Ud tan amable de explicarnos la verdad sobre el Axi Bridge? En el PDF aparece, por lo que está confirmado.

¿Lo tiene también PS4? ¿Sirve para algo?
Chifrinillo escribió:Sería Ud tan amable de explicarnos la verdad sobre el Axi Bridge? En el PDF aparece, por lo que está confirmado.

¿Lo tiene también PS4? ¿Sirve para algo?


Pero que tiene el AXI bridge de raro? Que es un AXI to PCI-express bridge? O como va el tema?

AXI es Advanced extensible interface, una evolucion de AMBA: Una especificacion abierta de interconexion de modulos dentro de un SoC, by ARM.

Si un sistema tiene AXI por un lado, y PCI-express por otro, necesitara un bridge entre ambos. No se que hay ahi de raro.
isma82 escribió:
marjalone escribió:¿Que GPU/APU futura soporta varios contextos graficos independientes?

Todas las GPUS AMD Fusion.
AMD http://developer.amd.com/wordpress/medi ... _final.pdf
- Página 40: Multiple Concurrent Contexts Multiple ACE paths
- pagina 3: Multiple Engine Architecture with Multi-Task Capabilities
- pagina 6: Independent & Concurrent Grid/Group Dispatcher, Background task scheduling, Real time task, scheduling Error Detection & Correction (EDCC), For GDDR and internal SRAM Pools
El paper de AMD sobre GCN.


Y dale, que eso es una presentación, una presentación de la arquitectura sin especificar con fechas el roadmap.
El "switching context" es una feature FULL HSA
Urian está baneado del subforo por "Troll"
Szasz escribió:Imagen


¿Y que tiene que ver con Xbox One? Ah no, que es otra vez vuestra técnica de sacar fuentes que no tienen nada que ver con Xbox One ni con PS4 para sumarlas a la discusión para manipularla hacía vuestra fantasías, fuentes que además de no tener nada que ver luego vais e interpretáis como os da la gana.

¡A otro perro con ese hueso!
@Urian creo que aquí nadie sabe como se ha diseñado la XOne. De hecho será un secreto muy bien guardado. No podemos asegurar que se use o no la NVRAM para tal fin, pero el caso es que ahí está ¿no?. Que no tenga nada que ver con PS4, pues sí ya que simplemente no tiene los componentes que siquiera lo permitirían, pero en el caso de XOne sí que están, por lo que al menos puede mencionarse como "posibles".
f5inet escribió:
isma82 escribió:[...]
http://developer.amd.com/wordpress/media/2013/06/2620_final.pdf
- Página 40: Multiple Concurrent Contexts Multiple ACE paths
Esta es la tercera vez que lo pongo macho... Una pista ¿Que crees que significa Concurrent? Concurrente es a la vez, Multiples contextos a la vez... vamos no se como quiere que te lo diga AMD. Mas claro es dificil.
[...]


si para ti, CONCURRENTES e INDEPENDIENTES significan lo mismo, obviamente, entenderas que Kaveri y Carrizo son identicos.

El problema es que la realidad es tozuda y las dos palabras son bastante diferentes.


Independiente es que no depende el uno del otro no que sean simultáneos. En las transparencias de AMD pone claramente Multiple Concurrent Contexts es decir las gpus GCN pueden ejecutar multiples contextos de forma concurrente, lo mismo que dice el paper al que le añade el adjetivo de independientes... ¿Según tu que siginifica que sean independientes? pues que puedes ejecutar ambos contextos simultaneamente sin interferir uno en el otro.

De todas formas, me gustaria que me explicases como encajan en este paper:
- el triple de potencia de cpu de xbox on sobre ps4
- Los anchos de banda de 700 GB/s esram y 250 GB/s ddr3
- Los 35 fpgs
- Los ¿Cuantos procesadores ARM?
- Los 2,6 Tlflops escalabes a 5

¿O ya hemos asumido que eran disparetes? Si pretendes cambiar el sentido del paper para intentar explicar una de las multiples teorias sin sentido ninguno de las que manejas estaría bien una reflexión sobre todas aquellas que deja por los suelos... Y que credibilidad deja esto a esas teorías? Unas son fumadas y otras válidas?

Hay una cosa que esta clara cuando se dicen tonterias obviamente falsas, por muchoa bola que construyas al rededor de ellas acaban saliendo a la luz. ¿Que esperabas? Microsoft lleva auto owneando esas teorias sistemáticamente. Por suerte Microsoft no miente o no suele mentir en sus especificaciones. Cosa que Sony ha hecho muchas veces pero hasta ahora microsoft no. Por eso es complentamente absurdo todo esto y más cuando las diferencias en todo caso son irrisorias. aunque bueno segun algunos xbox one duplica el rendimiento de ps4... esa afirmación es muy facil de demostrar con un juego que vaya al doble de frames por ejemplo o al doble de resolución... Esperando a que suceda estoy.

Dicho lo cual para evitar que se me acuse de nada, porque ya se que palo llevas tu y otros he de decirte que ni tengo ps3, ni tengo ps4 ni me interesa ninguna de las dos consolas y que ahora mismo no me interesa ninguna de las dos, soy usuarios de pc y wii u y no necesito nada más por ahora. Pero que a dia de hoy si tuviese que comprar una consola entre ps4 y xbox one elegiría xbox one porque parto de la magnifica consola que fue y es xbox 360, tengo sagas que me gustan como halo y gears of war, viva piñata o kameo que ojala vuelva y como ochentero que soy tengo en gran estima a la rare que compro microsoft y muchas de sus franquicias... A parte de que es más barata y a dia de hoy tiene mejores juegos. El 20 30 15 o % que sea mejor o peor me la trae al pairo. Y si no la compro es porque el catalogo de juegos exclusivos que no esten en pc es muy pequeño y porque no quiero pagar online que no uso jugando en pc y wii u que está on fire en exclusivos. Explicación que sobraba pero para dejarte claro que no tengo ningún interes en ensuciar el nombre de la consola. Pero lo que no se puede es mentir descaradamente como algunos haceis.
Zokormazo escribió:
f5inet escribió:ojo, que no estoy diciendo que XboxONE lleve esto (o al menos, no lo estoy diciendo TODAVIA), simplemente te estoy rebatiendo que ES POSIBLE usar memoria NAND Flash como RAM.


Las Flash son NVRAM, por lo tanto, son RAM.

Otra cosa es poder usarlos como memoria para acumular los datos para poder computarlos. En eso los NAND no son precisamente la mejor eleccion.

Y otra cosa distinta seria usarlo de cache a un nivel alto. En eso, supondra mejorar frente a cualquier memoria mas lenta que ella, como por ejemplo el disco de 5400rpm que monta la consola.

Eso si es un uso viable (si no se esta usando la NAND para nada mas en ese momento) y eficiente.


Project Fastforward AMD: PIM en memoria no volatil apilada.
Imagen
Mirad el esquema a ver si no os suena: Memoria de alto ancho de banda en el SOC, memoria flash apilada, elementos para mejorar el movimiento de los datos...
papatuelo escribió:
Zokormazo escribió:
f5inet escribió:ojo, que no estoy diciendo que XboxONE lleve esto (o al menos, no lo estoy diciendo TODAVIA), simplemente te estoy rebatiendo que ES POSIBLE usar memoria NAND Flash como RAM.


Las Flash son NVRAM, por lo tanto, son RAM.

Otra cosa es poder usarlos como memoria para acumular los datos para poder computarlos. En eso los NAND no son precisamente la mejor eleccion.

Y otra cosa distinta seria usarlo de cache a un nivel alto. En eso, supondra mejorar frente a cualquier memoria mas lenta que ella, como por ejemplo el disco de 5400rpm que monta la consola.

Eso si es un uso viable (si no se esta usando la NAND para nada mas en ese momento) y eficiente.


Project Fastforward AMD: PIM en memoria no volatil
Imagen


Con un gran stacked RAM de alto ancho de banda en la misma foto que añades xD De hecho, el procesado en ese modelo que mencionas se hace en la RAM, no en la NVRAM.

EDIT:

Cada tecnologia tiene sus pros y sus contras. El NVRAM frente a RAM, de pro tiene la parte de NV, de contra la latencia y el ancho de banda. Los tiros para usar nvram iran por el lado de almacenar datos persistentes en una memoria de acceso aleatorio (sin seek, se entiende)

Vamos, esta mas cerca de ser un SSD/cache que de una RAM donde computar.
isma82 escribió:Independiente es que no depende el uno del otro no que sean simultáneos. En las transparencias de AMD pone claramente Multiple Concurrent Contexts es decir las gpus GCN pueden ejecutar multiples contextos de forma concurrente, lo mismo que dice el paper al que le añade el adjetivo de independientes... ¿Según tu que siginifica que sean independientes? pues que puedes ejecutar ambos contextos simultaneamente sin interferir uno en el otro.

De todas formas, me gustaria que me explicases como encajan en este paper:
- el triple de potencia de cpu de xbox on sobre ps4
- Los anchos de banda de 700 GB/s esram y 250 GB/s ddr3
- Los 35 fpgs
- Los ¿Cuantos procesadores ARM?
- Los 2,6 Tlflops escalabes a 5

¿O ya hemos asumido que eran disparetes? Si pretendes cambiar el sentido del paper para intentar explicar una de las multiples teorias sin sentido ninguno de las que manejas estaría bien una reflexión sobre todas aquellas que deja por los suelos... Y que credibilidad deja esto a esas teorías? Unas son fumadas y otras válidas?

Hay una cosa que esta clara cuando se dicen tonterias obviamente falsas, por muchoa bola que construyas al rededor de ellas acaban saliendo a la luz. ¿Que esperabas? Microsoft lleva auto owneando esas teorias sistemáticamente. Por suerte Microsoft no miente o no suele mentir en sus especificaciones. Cosa que Sony ha hecho muchas veces pero hasta ahora microsoft no. Por eso es complentamente absurdo todo esto y más cuando las diferencias en todo caso son irrisorias. aunque bueno segun algunos xbox one duplica el rendimiento de ps4... esa afirmación es muy facil de demostrar con un juego que vaya al doble de frames por ejemplo o al doble de resolución... Esperando a que suceda estoy.

Dicho lo cual para evitar que se me acuse de nada, porque ya se que palo llevas tu y otros he de decirte que ni tengo ps3, ni tengo ps4 ni me interesa ninguna de las dos consolas y que ahora mismo no me interesa ninguna de las dos, soy usuarios de pc y wii u y no necesito nada más por ahora. Pero que a dia de hoy si tuviese que comprar una consola entre ps4 y xbox one elegiría xbox one porque parto de la magnifica consola que fue y es xbox 360, tengo sagas que me gustan como halo y gears of war, viva piñata o kameo que ojala vuelva y como ochentero que soy tengo en gran estima a la rare que compro microsoft y muchas de sus franquicias... A parte de que es más barata y a dia de hoy tiene mejores juegos. El 20 30 15 o % que sea mejor o peor me la trae al pairo. Y si no la compro es porque el catalogo de juegos exclusivos que no esten en pc es muy pequeño y porque no quiero pagar online que no uso jugando en pc y wii u que está on fire en exclusivos. Explicación que sobraba pero para dejarte claro que no tengo ningún interes en ensuciar el nombre de la consola. Pero lo que no se puede es mentir descaradamente como algunos haceis.


Esperando también estamos todos a que en PS4 se vea algo técnico del nivel de los juegos exclusivos mostrados en One, o al menos esa diferencia en resolución y de framerate importante que expliquen el tan llevado 50% more power de PS4. Y espero que no te vayas por las ramas de los primeros multi usando SDK nada optimizados para la máquina. El problema es haber visto un 50% more power en todas partes y de repente los multis actuales son mejores en One (AC Unity, COD AW, GTA5).

Ojo que no te digo que tú hayas defendido el 50% more power. Pero también lo que se ha visto es que NADIE ha defendido que eso no fuera así con tantas ganas como el ataque a la posibilidad de que One ahora gire la tortilla.
Entre piques personales, referencias a PS4 que a muchos nos importa un mojón, otros que se creen en un plano superior y se asoman para aportar nada -se lo pasan pipa eso sí- y demás offtopics, os cargáis cualquier aportación interesante.
@Zocomazo para que necesitas tanta RAM en ONE si puedes programas con tiles metiendo hasta 6gb de texturas en 32 megas??? Pero la eSRam cumple con la premisa de alto ancho de banda y baja latencia.

Y fijate que el PIM lo hace fuera del SOC en memoria NO VOLATIL, no en la RAM.
isma82 escribió:Por suerte Microsoft no miente o no suele mentir en sus especificaciones. Cosa que Sony ha hecho muchas veces pero hasta ahora microsoft no. Por eso es complentamente absurdo todo esto y más cuando las diferencias en todo caso son irrisorias. aunque bueno segun algunos xbox one duplica el rendimiento de ps4... esa afirmación es muy facil de demostrar con un juego que vaya al doble de frames por ejemplo o al doble de resolución... Esperando a que suceda estoy.

Pero lo que no se puede es mentir descaradamente como algunos haceis.


¿Pero aquí quien miente?

Si existen dos "bandos", por ahora está mintiendo uno claramente más que el otro, pero la palabra mentir me parece muy fuerte.

Yo creo que hay gente que "piensa" una cosa e interpreta los papers a su manera, y otra que los interpreta de otra, lo que pasa es que antes había más margen para la interpretación, ahora que poco a poco va quedando todo más acotado... Un bando está quedando retratado.
@papatuelo: En la foto que has posteado, el procesado lo hace en el lado izquierdo, donde estan la RAM y el procesador.

Para que necesitas RAM? para almacenar mil mierdas que leerlas del disco duro cada vez que los necesitaras seria horriblemente lento.

Como procesas algo fuera del SoC sin ningun procesador?

La NAND tiene muchos usos interesantes, pero reemplazar a la memoria (G)DDR no es una de ellas
isma82 escribió:[...]
- Los 2,6 Tlflops escalabes a 5
[...]


ese te lo puedo contestar:
- la APU carrizo tiene 4 instrucciones/juegos de instrucciones adicionales, pero son muy interesantes las siguientes:
* MOVBE: instruccion destinada a mover/transponer datos Bigendian a Littleendian y viceversa. Esto, que parece una patochada, toma sentido cuando se sabe que los procesadores X86 son LittleEndian y los procesadores PowerPC son BigEndian y que en caso de querer hacer un 'emulador' de PPC, se pierde de media un 20% de la potencia en 'transponer' los datos. (retrocompatibilidad en proceso...)
* AVX2: instrucciones dedicadas a operar con los nuevos registros de 256bits, y no de 128bits como hasta ahora. Seran utilizados especificamente para DoublePrecision (vaya, otro leak confirmado...)

Con respecto a la doble precision, con precision simple (GCN 1.x) tenemos registros de 128bits (4*32bits) para floats de 32bits (FP32). tu argumentas que para que queremos precision doble (FP64), si la diferencia entre 0,00000013 y 0,00000013453241 es despreciable... y si, pudiera ser asi... lo que sucede es que en 256bits, en lugar de meter 4*64bits y operar con precision doble, podria meter 8*32 y seguir operando en precision simple, pero realizando EL DOBLE DE TRABAJO (y con este es OTRO LEAK confirmado)

si a eso, le metemos los dos contextos INDEPENDIENTES (que no concurrentes, aunque tambien) que es capaz de manejar la GPU, y que seria una especie de 'hiperthreading' de GPU, tenemos que EL MISMO SILICIO es capaz de rendir entre un 50% y un 100% MAS que la solucion SIN HIPERTHREADING.

Y es por esto que no es lo mismo CONCURRENTE que INDEPENDIENTE. toda la familia GCN ejecutan sus instrucciones en un cola tiene 16 WAVEFRONTS. la ejecucion CONCURRENTE significa que puedes tener hasta 16 WAVEFRONTS esperando la ejecucion, y si UN WAVEFRONT tiene una dependencia de RAM no resuelta (o sea, el bus de RAM esta muy ocupado como para haber traido los datos a la L2 y poder operar con el), puede ejecutar cualquiera de los otros 15 WAVEFRONTS que estan esperando su turno, pero ojo, solo se puede ejecutar un WAVEFRONT si no depende de un WAVEFRONT anterior. es algo que si has estudiado los 'pipes U y V' (como ejemplo de arquitectura superescalar) de la microarquitectura P5 lo entiendes perfectamente http://en.wikipedia.org/wiki/P5_%28microarchitecture%29
La ejecucion de MULTIPLES WAVEFRONTS es lo que permite que si una determinada operacion esta pendiente de una solicitud pendiente no bloquee todo el pipeline de ejecucion. Es a esto cuando se refieren a CONTEXT SWITCH.
El problema es que 'atascar' la GPU con 16 wavefronts que son dependientes unos de otros o estan pendientes de resolucion de RAM es algo que sucede con BASTANTE FRECUENCIA
Imagen

Los dos contextos INDEPENDIENTES es que, ademas de los 16 wavefronts, puedes tener OTROS 16 Wavefronts esperando en la misma CU. Si, es posbile que aun asi se produzcan atascos, pero no hace falta tener muchas luces para determinar que la probabilidad de atascos con 16 Wavefronts es el doble que con 16+16Wavefronts

al final, ambos leaks estan practicamente confirmados:
- 256bits de GCN2.0 vs 128bits de GCN1.x = 2x rendimiento si se sigue usando la misma precision (FP32)
- 'Hiperthreading' de GPU = 1,5-2x rendimiento que el mismo silicio SIN hiperthreading.

1,31Tflops * 2 * 1,5 = 3,93TFlops

y es por eso por lo que 300 Millones de $ en licenciar una APU jamas podra llegar a los 3000 millones de $ en desarrollar conjuntamente una APU
Zokormazo escribió:@papatuelo: En la foto que has posteado, el procesado lo hace en el lado izquierdo, donde estan la RAM y el procesador.

Para que necesitas RAM? para almacenar mil mierdas que leerlas del disco duro cada vez que los necesitaras seria horriblemente lento.

Como procesas algo fuera del SoC sin ningun procesador?

La NAND tiene muchos usos interesantes, pero reemplazar a la memoria (G)DDR no es una de ellas


Vamos a ver zoco, tienes resaltada una zona de la flash con un cartelito que pone procesing in memory (PIM) ¿Cómo lo hacen?Yo que sé, pero la imagen está muy muy clara.

Es una tecnología que aun no está fuera, de hecho creo que no hace mucho el propio Gobierno de los Estados Unidos aporto 3 billones de dolares ha dicho proyecto.
yo me quedo con los 3,9 t si eso fuera cierto XD XD XD XD
papatuelo escribió:
Zokormazo escribió:@papatuelo: En la foto que has posteado, el procesado lo hace en el lado izquierdo, donde estan la RAM y el procesador.

Para que necesitas RAM? para almacenar mil mierdas que leerlas del disco duro cada vez que los necesitaras seria horriblemente lento.

Como procesas algo fuera del SoC sin ningun procesador?

La NAND tiene muchos usos interesantes, pero reemplazar a la memoria (G)DDR no es una de ellas


Vamos a ver zoco, tienes resalta una zona de la flash con un cartelito que pone procesing in memory (PIM) ¿Cómo lo hacen?Yo que sé, pero la imagen está muy muy clara.


Tienes razon, no lo habia visto. Te has fijado que curioso que el resto de los 7 bloques del lado izquierdo son iguales, y que ese que menciones de hecho debajo tiene igual, y encima de el, pintado, tiene lo del PIM de una forma un tanto extraña?

Y esto porque? Quizas sea real, pero justo ese cuadrado es el raro... huele raro no crees?

Pero bueno, aun siendo cierto. Ese modulo no esta conectado a la NVRAM, esta conectado al SoC, al igual que el NVRAM.

La razon para usar NVRAM frente a RAMs volatiles tiene que ser la persistencia de datos. En todo lo demas, es tremendamente inferior a otros modelos de RAM
Nuhar escribió:
Polyteres escribió:Yo me lo estoy pasando pipa leyéndoos [sonrisa] [sonrisa] [sonrisa] .

Un saludo.


Cuidado con las pipas que no seras el primero que se le clava una cascara en el paladar :P

Entre las pipas, la suegra y el perro no se como te da tiempo a leer todo esto ;)


Buenas gente. Gracias por preocuparte por mí pero tranquilo son pipas peladas [poraki] . Lo de tiempo para leer todo...lectura en diagonal XD XD XD .

Sigo esperando q alguien diga q hay de diferente con lo q se vió en la HotChip y/o en la entrevista a los arquitectos de XboxOne hace un año.

Un saludo.
f5inet escribió:
isma82 escribió:[...]
- Los 2,6 Tlflops escalabes a 5
[...]


ese te lo puedo contestar:
- la APU carrizo tiene 4 instrucciones/juegos de instrucciones adicionales, pero son muy interesantes las siguientes:
* MOVBE: instruccion destinada a mover/transponer datos Bigendian a Littleendian y viceversa. Esto, que parece una patochada, toma sentido cuando se sabe que los procesadores X86 son LittleEndian y los procesadores PowerPC son BigEndian y que en caso de querer hacer un 'emulador' de PPC, se pierde de media un 20% de la potencia en 'transponer' los datos. (retrocompatibilidad en proceso...)
* AVX2: instrucciones dedicadas a operar con los nuevos registros de 256bits, y no de 128bits como hasta ahora. Seran utilizados especificamente para DoublePrecision (vaya, otro leak confirmado...)

Con respecto a la doble precision, con precision simple (GCN 1.x) tenemos registros de 128bits (4*32bits) para floats de 32bits (FP32). tu argumentas que para que queremos precision doble (FP64), si la diferencia entre 0,00000013 y 0,00000013453241 es despreciable... y si, pudiera ser asi... lo que sucede es que en 256bits, en lugar de meter 4*64bits y operar con precision doble, podria meter 8*32 y seguir operando en precision simple, pero realizando EL DOBLE DE TRABAJO (y con este es OTRO LEAK confirmado)

si a eso, le metemos los dos contextos INDEPENDIENTES (que no concurrentes, aunque tambien) que es capaz de manejar la GPU, y que seria una especie de 'hiperthreading' de GPU, tenemos que EL MISMO SILICIO es capaz de rendir entre un 50% y un 100% MAS que la solucion SIN HIPERTHREADING.

Y es por esto que no es lo mismo CONCURRENTE que INDEPENDIENTE. toda la familia GCN ejecutan sus instrucciones en un cola tiene 16 WAVEFRONTS. la ejecucion CONCURRENTE significa que puedes tener hasta 16 WAVEFRONTS esperando la ejecucion, y si UN WAVEFRONT tiene una dependencia de RAM no resuelta (o sea, el bus de RAM esta muy ocupado como para haber traido los datos a la L2 y poder operar con el), puede ejecutar cualquiera de los otros 15 WAVEFRONTS que estan esperando su turno, pero ojo, solo se puede ejecutar un WAVEFRONT si no depende de un WAVEFRONT anterior. es algo que si has estudiado los 'pipes U y V' (como ejemplo de arquitectura superescalar) de la microarquitectura P5 lo entiendes perfectamente http://en.wikipedia.org/wiki/P5_%28microarchitecture%29
La ejecucion de MULTIPLES WAVEFRONTS es lo que permite que si una determinada operacion esta pendiente de una solicitud pendiente no bloquee todo el pipeline de ejecucion. Es a esto cuando se refieren a CONTEXT SWITCH.
El problema es que 'atascar' la GPU con 16 wavefronts que son dependientes unos de otros o estan pendientes de resolucion de RAM es algo que sucede con BASTANTE FRECUENCIA
Imagen

Los dos contextos INDEPENDIENTES es que, ademas de los 16 wavefronts, puedes tener OTROS 16 Wavefronts esperando en la misma CU. Si, es posbile que aun asi se produzcan atascos, pero no hace falta tener muchas luces para determinar que la probabilidad de atascos con 16 Wavefronts es el doble que con 16+16Wavefronts

al final, ambos leaks estan practicamente confirmados:
- 256bits de GCN2.0 vs 128bits de GCN1.x = 2x rendimiento si se sigue usando la misma precision (FP32)
- 'Hiperthreading' de GPU = 1,5-2x rendimiento que el mismo silicio SIN hiperthreading.

1,31Tflops * 2 * 1,5 = 3,93TFlops

y es por eso por lo que 300 Millones de $ en licenciar una APU jamas podra llegar a los 3000 millones de $ en desarrollar conjuntamente una APU


Sólo puedo decir una cosa

[tadoramo] [tadoramo]

Has conseguido que entienda todo esto de una manera limpia, enhorabuena por tu explicación.

Imagino que dentro de un par de años, cuando estén en la calle juegos como tomb raider, gears, qb o halo 5, todo esto quedará patente de alguna manera, espero que así sea, pinta muy muy bien.
Zokormazo escribió:
papatuelo escribió:
Zokormazo escribió:@papatuelo: En la foto que has posteado, el procesado lo hace en el lado izquierdo, donde estan la RAM y el procesador.

Para que necesitas RAM? para almacenar mil mierdas que leerlas del disco duro cada vez que los necesitaras seria horriblemente lento.

Como procesas algo fuera del SoC sin ningun procesador?

La NAND tiene muchos usos interesantes, pero reemplazar a la memoria (G)DDR no es una de ellas


Vamos a ver zoco, tienes resalta una zona de la flash con un cartelito que pone procesing in memory (PIM) ¿Cómo lo hacen?Yo que sé, pero la imagen está muy muy clara.


Tienes razon, no lo habia visto. Te has fijado que curioso que el resto de los 7 bloques del lado izquierdo son iguales, y que ese que menciones de hecho debajo tiene igual, y encima de el, pintado, tiene lo del PIM de una forma un tanto extraña?

Y esto porque? Quizas sea real, pero justo ese cuadrado es el raro... huele raro no crees?

Pero bueno, aun siendo cierto. Ese modulo no esta conectado a la NVRAM, esta conectado al SoC, al igual que el NVRAM.

La razon para usar NVRAM frente a RAMs volatiles tiene que ser la persistencia de datos. En todo lo demas, es tremendamente inferior a otros modelos de RAM


Ese bloque es exactamente igual pero resaltado para llamar la atención, han marcado ese como podían haber marcado cualquier otro, solo señalan que es una caracterítica de esa memoría en esa arquitectura.

Pero que podéis buscar acerca de esa esa tecnología y comprobaréis que parece compartir filosofía con XBOX ONE.
Polyteres escribió:[...]
Sigo esperando q alguien diga q hay de diferente con lo q se vió en la HotChip y/o en la entrevista a los arquitectos de XboxOne hace un año.

Un saludo.


Esta es la diferencia: http://www.computer.org/csdl/mags/mi/pr ... 756701.pdf
El MOVE con desplazamiento de bits, no sé si será el mismo MOVBE con otros parámetros u otro, pero en cualquier caso se usaría el mismo hardware para tal fin, puede usarse para cualquier cosa. En realidad se metió más bien para conversión de formatos RGBA y poder intercambiarlos sin necesidad de que lo haga el CS.
darksch escribió:El MOVE con desplazamiento de bits, no sé si será el mismo MOVBE con otros parámetros u otro, pero en cualquier caso se usaría el mismo hardware para tal fin, puede usarse para cualquier cosa. En realidad se metió más bien para conversión de formatos RGBA y poder intercambiarlos sin necesidad de que lo haga el CS.


http://www.extremetech.com/computing/17 ... efficiency

We already knew that Carrizo would support AVX2 (presumably with full 256-bit registers as well). We now know that the chip will add support for the BMI2, MOVBE, and RDRAND instructions as well. BMI2 refers to bit manipulation (manipulating code smaller than a word), RDRAND adds support for retrieving a random number from a hardware random number generator implemented on-die, and MOVBE is an Atom instruction (recently added to Haswell) that converts to and from little-endian to big-endian format. Nothing huge here, but it brings AMD up to parity with Haswell save for Intel’s TSX extensions.
pspskulls escribió:Esperando también estamos todos a que en PS4 se vea algo técnico del nivel de los juegos exclusivos mostrados en One, o al menos esa diferencia en resolución y de framerate importante que expliquen el tan llevado 50% more power de PS4. Y espero que no te vayas por las ramas de los primeros multi usando SDK nada optimizados para la máquina. El problema es haber visto un 50% more power en todas partes y de repente los multis actuales son mejores en One (AC Unity, COD AW, GTA5).

Ojo que no te digo que tú hayas defendido el 50% more power. Pero también lo que se ha visto es que NADIE ha defendido que eso no fuera así con tantas ganas como el ataque a la posibilidad de que One ahora gire la tortilla.

Yo no te puedo contestar a algo que nunca he afirmado. Desde la subida del oc llevo diciendo que la diferencia real entre ps4 y xbox one es entorno a un 30% o incluso menos que los que decían 50% no tenían en cuenta la cpu. También dije en su momento que xbo one tendría problemas para alcanzar los 1080p hasta que le pillaran el truco como así ha sido, pero que esas diferencias se irían diluyendo en el momento que Microsoft tuviera una api en condiciones y apartara kinect de la ecuación. Si opinando que a nivel global ps4 es ligeramente superior, algo que no es descabellado como comprenderás viendo la tónica general de los multis que son lso que determinan el rendimiento de una máquina porque operan en condiciones mas equitativas que un juego exclusivo que es difícil de comparar... aunque algunos los comparan haciendo un ejercicio circense bastante lamentable. Puedes decir que un juego se ve más bonito que otro pero difícilmente puedes saber a grandes rasgos cual de los dos necesita mas potencia si ambos tienen valores de producción similares. Esto es la retorica que usaron los usuarios de sony apra vender la superior potencia de ps3 que era completamente falsa y no solo eso si no todo lo contrario era xbox 360 la que era en potencia superior y lo demostró en los multis. Así que la respuesta es a día de hoy sigue rindiendo ps4 mas que xbox one aunque está en un punto más coherente con la diferencia teórica de rendimiento que antes. Con DX 12 yo creo que se igualará más, e incluso puede que casos como assassins creed unity sea más comunes que ahora mismo, porque la cpu va a estar mejor utilizada que ahora. Siempre dentro de que como digo me parecen diferencias insignificantes. Tómalo como quieras, y esto es lo que llevo suscribiendo desde hace un año incluso cuando el rendimiento de ps4 parecía superior. ¿Que me puedo equivocar? Claro no soy omnisciente, pero una cosa es equivocarse en ponme aqui unos pixeles frames o x porcentaje (que están como he dicho antes calculados a ojimetro evidentemente) o que un aspecto concreto de algo no conozca o se me escape, y están muy bien debates sensatos para conocer también otros puntos de vista, y otra es directamente fumarse una plantación de maría y decir paridas como la del triple de cpu o el ancho de banda de 700 GB/s de la esram. Pongamos las cosas en su justa medida. Tan tóxicos son los que hipervitaminan ps4 como los son los que hipervitaminar xbox one. Son haters, trolls, gente que por x agenda oculta le interesa manipular para engañar en una dirección u otra y ambos tipos de usuarios me parecen igual de indeseables.

@f5inet
1,31Tflops * 2 * 1,5 = 3,93TFlops

Pero no te das cuenta que por cada paper que sale por cada post de MisterXmedia por cada patente que encuentran por ahí cabias es hardware de xbox one 70 veces?
Ahora ya no son 5 tflops ahora son 4? en que quedamos?

No ves que es un despropósito completo. Si tiene ese rendimiento insisto, espero ver un multi que tenga 60 fps estables vs 30 fps estables en algún momento. Es así de fácil de demostrar. No estas sosteniendo ventajas de 30% arriba que pueden ser diluidas por otros aspectos, no, estas planteando una máquina con una diferencia similar entre xbox y ps2, una diferencia como la que hay hoy en pc con respecto a ps4... Es una chaladura muy difícil de sostener, pero me alegra que tengas la osadía de plantearla abiertamente.

Hay una cosa y con esto acabo que argumentas que es de primero de carrera, o de primero de tecnología de bachillerato, sin querer ofenderte... pero

Con respecto a la doble precision, con precision simple (GCN 1.x) tenemos registros de 128bits (4*32bits) para floats de 32bits (FP32). tu argumentas que para que queremos precision doble (FP64), si la diferencia entre 0,00000013 y 0,00000013453241 es despreciable... y si, pudiera ser asi... lo que sucede es que en 256bits, en lugar de meter 4*64bits y operar con precision doble, podria meter 8*32 y seguir operando en precision simple, pero realizando EL DOBLE DE TRABAJO (y con este es OTRO LEAK confirmado)

La parte subrayada, es una autentica chorrada. Porque 256 bits son 256 bits y un double ocupa 64 bits y un float ocupa 32 bits. Luego si tu rendimiento es 1,31 tflops en doble precisión en simple digamos podrías tener 2,6 tflops correcto, luego el rendimiento de la gpu en el paper podría 2,6 tflops no 1,31 tflops. Si el rendimiento en doble y en simple fuera el mismo, pongamos el caso daría igual poner un dato y otro pero eso ya de por si es bastante ciencia ficción pero de ser así no aportaría rendimiento extra si no precisión extra, pero no, el dato se pone siempre en floats porque es lo que manejan los juegos y porque siempre es superior y no en doble. En le paper no pone que sean dobles, ninguna comunicación oficial ni extraoficial de microsoft ni de ningún desarrollador ingeniero o arquitecto de hardware dice que sean doubles, ni el el hotchip ni en los que despiezaron la consola y como digo los datos ocuparian el doble de memoria con lo cual sería muy malo par los escasos 32 GB de la esram. Eso es básicamente sacada de la manga. Incluso las gpus esas que comentáis que tiene mayor rendimiento en double siguen teniendo mayor rendimiento en floads y por tanto cuando muestran sus numeros o ponen los dos o solo ponen el de floadts porque es el que se utiliza....

Y lo demás es, nuevamente inventarse las cosas. El paper no dice nada insisto de esto, el que contradice información oficial afirmando tal cosa eres tú y afirmando una cosa que es básicamente un despropósito. Pero es lo que te digo, si es muy facil. Cuando haya un jeugo a 60 fps en xbox one y en ps4 a 30 entonces podemos poner en entre dicho a la propia microsoft, mientras tanto es ejercicio de humo de alguien que por el motivo que sea quiere hipervitaminar xbox one como otros hacen lo propio con ps4. Haces exactamente lo mismo que recrimináis a otros.
Ahora no encuentro exactamente el artículo donde lo decía. De todas formas el hardware que lo hace es el mismo, el Swizzle Copy, aquí más o menos una referencia de por donde van los tiros:

https://www.google.es/?gws_rd=ssl#q=xbox+one+swizzle+copy+rgb+converter&spell=1

En realidad no es desplazamiento, es la capacidad para intercambiar los bits. La conversión de Endian es un caso particular de esta operación.
darksch escribió:Ahora no encuentro exactamente el artículo donde lo decía. De todas formas el hardware que lo hace es el mismo, el Swizzle Copy, aquí más o menos una referencia de por donde van los tiros:

https://www.google.es/?gws_rd=ssl#q=xbox+one+swizzle+copy+rgb+converter&spell=1

En realidad no es desplazamiento, es la capacidad para intercambiar los bits. La conversión de Endian es un caso particular de esta operación.


Jaguar ya tiene la instrucción MOVBE.

The Jaguar core has support for the following instruction sets and instructions: MMX, SSE, SSE2, SSE3, SSSE3, SSE4a, SSE4.1, SSE4.2, AVX, F16C, CLMUL, AES, BMI1, MOVBE (Move Big-Endian instruction), XSAVE/XSAVEOPT, ABM (POPCNT/LZCNT), and AMD-V.[1]
@papatuelo PIM es una tecnología muy prometedora para analíticas de datos en tiempo real en entornos profesionales, gubernamentales y empresariales. Forma parte de la llamada "Exascale Computing" en la que el Departamento de Energía de EEUU ha invertido en forma de subvenciones más de 400 millones de dólares (subvenciones a AMD, Nvidia e Intel). Hay un gran interés estratégico en torno a esta tecnología, muy ligada al Big Data.
Es una idea que viene de finales de los ´80 pero inaplicable por sus costes. Mira este artículo de 1996: http://archive.wired.com/wired/archive/4.08/geek.html
Para datacenters no sólo ahorraría miles de millones en costes energéticos. Sería como construir una especie de dispositivo de cloud-computing súper eficiente. En un rack 52U con hojas estándar de 21" cabrían unos 18TB de memoria y alrededor de 1 millón de cores. Big Data es un gran negocio en el que tanto Microsoft como las demás grandes empresas tecnológicas quieren posicionarse para no perder tren.

Ahora, de ahí a verlo en una consola de videojuegos.... sería impresionante pero no lo veo.
isma82 escribió:[...]
@f5inet
1,31Tflops * 2 * 1,5 = 3,93TFlops

Pero no te das cuenta que por cada paper que sale por cada post de MisterXmedia por cada patente que encuentran por ahi cabial es hardware de xbox one 70 veces?
Ahora ya no son 5 tflops ahora son 4? en que quedamos?

No ves que es un desproposito completo. Si tiene ese rendimiento insisto espero ver un multi que tenga 60 fps estables vs 30 fps estables en algún momento. Es así de facil de demostrar. No estas sosteniendo ventajas de 30% arriba que peuden ser diluidas por otros aspectos, no estas planteando una máquina con una diferencia similar entre xbox y ps2, una diferencia como la que hay hoy en pc con respecto a ps4... Es una chaladura muy dificil de sostener, pero me alegra que tengas la osadia de plantearla abiertamente.

Hay una cosa y con esto acabo que argumentas que es de primero de carrera, o de primero de tecnologia de bachillerato, sin querer ofendete... [...]


No ofende el que quiere. ofende el que puede. Y tu no puedes.

punto numero uno: yo no defiendo posturas hilarantes de misterXmedia. yo defiendo MIS POSTURAS. y mis posturas son: ALUs el doble de anchas (256bits de GCN2.0 vs 128bits de GCN1.x) + dos contextos independientes (hiperthreading de GPU) es el equivalente a entre 3 y 4 veces la potencia inicial (dependiendo del margen que le quieras dar al hiperthreading de GPU, 1,5-2x)

punto numero dos: es mi opinion, y las opiniones son como los culos: todo el mundo tiene uno y cree que el de los demas apesta

punto numero tres: ya que has sacado el tema... ¿Forza Horizon 2 vs DriveClub no te vale como ejemplo de diferencia de potencia entre una y otra? al fin y al cabo, son los dos unicos exclusivos de coches, y la salida fue mas o menos por las mismas fechas...
f5inet escribió:
No ofende el que quiere. ofende el que puede. Y tu no puedes.

punto numero uno: yo no defiendo posturas hilarantes de misterXmedia. yo defiendo MIS POSTURAS. y mis posturas son: ALUs el doble de anchas (256bits de GCN2.0 vs 128bits de GCN1.x) + dos contextos independientes (hiperthreading de GPU) es el equivalente a entre 3 y 4 veces la potencia inicial (dependiendo del margen que le quieras dar al hiperthreading de GPU, 1,5-2x)

punto numero dos: es mi opinion, y las opiniones son como los culos: todo el mundo tiene uno y cree que el de los demas apesta

punto numero tres: ya que has sacado el tema... ¿Forza Horizon 2 vs DriveClub no te vale como ejemplo de diferencia de potencia entre una y otra? al fin y al cabo, son los dos unicos exclusivos de coches, y la salida fue mas o menos por las mismas fechas...


Hay ciertas cosas que no son muy opinables, aunque evidentemente tu puede decir lo que te plazca. Otra cosa es que tengan sentido o no. Defiendes tus posturas hilarantes, me parece bien, pero siguen siendo hilarantes. Tu puedes defender lo que quieras pero bueno pero sacarte de la manga que los datos en tflops son en doubles en ved de en floats sin pruebas es como si yo te digo que Wii u es direct x 11 porque si, porque he visto una patente de IBM con una gpu con un teselador... pues vale... pues muy bien, un aplauso. Y ya el ejercicio de imaginación por el cual microsoft da en todas partes los datos en precision double para que todo el mundo piense que su consola es un truño y leugo.... .zas skynet!!! eso si cuando ya la consola lleve la mitad de su vida útil o hayan salido 100 juegos arrastraos de rendimiento. ¿Y la cpu para dar de comer toda esa putensia? Pobre jaguar...

¿Forza Horizon 2 vs DriveClub no te vale como ejemplo de diferencia de potencia entre una y otra?
¿En que? Ryse se folla a cualquier otro juego de xbox one y en pc funciona con una 7770 mejor que en xbox one ¿Que me quieres decir con eso? Otro ejercicio circense de comparaciones entre juegos diferentes con técnicas diferentes hechos por estudios diferentes... Una cosa es la potencia necesaria para mover el juego y otra su resultado visual. No he jugado a ningun de ellos y si que considero que por lo que he visto se ve mejor forza horizont 2, pero no hay una diferencia de rendimiento x2'5 o por ejemplo iría a 60 fps y no a 30. Es una diferencia en la calidad del juego y de las técnicas empleadas por sus creadores, un juego bien optimizado para la consola en la que sale. Eso es como si me dices que ps3 era mejor porque uncharted 2 se ve de puta madre... Bueno si tu te lo crees pues vale, feliz será pero la realidad es distinta y los multis no dicen lo mismo, insistiendo que me parecen diferencias irrisorias en cualquier caso.

Lo que vienes a decir tu es que xbox one es sumamente más potente que ps4... y te basas en.... nada, porque los documentos de microsoft no lo dicen, los juegos no lo demuestran y los desarrolladores no lo suscriben... pues chico, que quieres que te diga... pues que tu por decir puedes decir las chorradas que quieras pero seguirán siendo eso, chorradas y vendida de humo. Golpecitos en el pecho para autoconvencerte de no se muy bien el que pero bueno... Solo me queda decir que disfrutes de la potencia oculta... que ya cuando salga me avisas ;)
isma82 escribió:[...]Lo que vienes a decir tu es que xbox one es sumamente más potente que ps4... y te basas en.... nada, porque los documentos de microsoft no lo dicen, los juegos no lo demuestran y los desarrolladores no lo suscriben... pues chico, que quieres que te diga... pues que tu por decir puedes decir las chorradas que quieras pero seguirán siendo eso, chorradas y vendida de humo. Golpecitos en el pecho para autoconvencerte de no se muy bien el que pero bueno... Solo me queda decir que disfrutes de la potencia oculta... que ya cuando salga me avisas ;)


No. Eso lo has dicho tu. yo no he metido a PS4 en el saco hasta que tu la has metido. Lo que defiendo es que XboxONE es mucho mas potente que lo que los frios numeros de 1,31Tflops dicen... al igual que los 240Gflops de la GPU de Xbox360 no representaban la potencia real de la consola, que estuvo en paridad durante toda la generacion contra los 1,8Tflops del RSX de PS3 (sisi, he escrito bien, 1,8Tflops de la GPU de PS3. http://www.ign.com/articles/2005/05/16/ ... ch-specs-2 )
f5inet escribió:
isma82 escribió:[...]Lo que vienes a decir tu es que xbox one es sumamente más potente que ps4... y te basas en.... nada, porque los documentos de microsoft no lo dicen, los juegos no lo demuestran y los desarrolladores no lo suscriben... pues chico, que quieres que te diga... pues que tu por decir puedes decir las chorradas que quieras pero seguirán siendo eso, chorradas y vendida de humo. Golpecitos en el pecho para autoconvencerte de no se muy bien el que pero bueno... Solo me queda decir que disfrutes de la potencia oculta... que ya cuando salga me avisas ;)


No. Eso lo has dicho tu. yo no he metido a PS4 en el saco hasta que tu la has metido. Lo que defiendo es que XboxONE es mucho mas potente que lo que los frios numeros de 1,31Tflops dicen... al igual que los 240Gflops de la GPU de Xbox360 no representaban la potencia real de la consola, que estuvo en paridad durante toda la generacion contra los 1,8Tflops del RSX de PS3 (sisi, he escrito bien, 1,8Tflops de la GPU de PS3. http://www.ign.com/articles/2005/05/16/ ... ch-specs-2 )


Se perfectamente las chorradas que Sony dijo en su momento y las mentiras que soltó. No hagas tu lo mismo. Tenga algo más de clase. Si tu dices que xbox tiene 4 tflops estas diciendo que tiene mas el doble de rendimiento que ps4. Directa o indirectamente lo estas diciendo. Y no solo eso si no que tiene mas rendimiento que muchos pcs que ahora mismo defenestran en rendimiento a las dos consolas. Ya te digo que pobre jaguar lo que va a sufrir para darla de comer. Los 240a Gflosp de xbox 360 representaba la potencia real de la consola que era en gpu un 30% o 40% superior a la de ps3. A la potencia real de la ps3 no la la inventada por Sony.
f5inet escribió:
Polyteres escribió:[...]
Sigo esperando q alguien diga q hay de diferente con lo q se vió en la HotChip y/o en la entrevista a los arquitectos de XboxOne hace un año.

Un saludo.


Esta es la diferencia: http://www.computer.org/csdl/mags/mi/pr ... 756701.pdf


Buenas gente. Es q ahí no hay ninguna diferencia ni añadido con respecto a esto:

Imagen

Y a esto:

One thing to keep in mind when looking at comparative game resolutions is that currently the Xbox One has a conservative 10 per cent time-sliced reservation on the GPU for system processing. This is used both for the GPGPU processing for Kinect and for the rendering of concurrent system content such as snap mode. The current reservation provides strong isolation between the title and the system and simplifies game development (strong isolation means that the system workloads, which are variable, won't perturb the performance of the game rendering). In the future, we plan to open up more options to developers to access this GPU reservation time while maintaining full system functionality.

To facilitate this, in addition to asynchronous compute queues, the Xbox One hardware supports two concurrent render pipes. The two render pipes can allow the hardware to render title content at high priority while concurrently rendering system content at low priority. The GPU hardware scheduler is designed to maximise throughput and automatically fills "holes" in the high-priority processing. This can allow the system rendering to make use of the ROPs for fill, for example, while the title is simultaneously doing synchronous compute operations on the Compute Units.


Y esto de hace un año, y no lo digo yo, lo dice Microsoft. Haced las interpretaciones q os de la gana que las cosas están cristalinas desde hace mucho tiempo. Sabemos q hay dos graphics command processors y para q se usan cada uno (ver entrevista). No es bueno confundir contextos a nivel de driver/SO q a nivel interno en una CU por ejemplo. Volved a la doble GPU (me da igual q sea lógica o física), los 4 TFlops de potencia, las ALUs desdobladas...es de chiste.

Un saludo.
isma82 escribió:
f5inet escribió:
isma82 escribió:[...]Lo que vienes a decir tu es que xbox one es sumamente más potente que ps4... y te basas en.... nada, porque los documentos de microsoft no lo dicen, los juegos no lo demuestran y los desarrolladores no lo suscriben... pues chico, que quieres que te diga... pues que tu por decir puedes decir las chorradas que quieras pero seguirán siendo eso, chorradas y vendida de humo. Golpecitos en el pecho para autoconvencerte de no se muy bien el que pero bueno... Solo me queda decir que disfrutes de la potencia oculta... que ya cuando salga me avisas ;)


No. Eso lo has dicho tu. yo no he metido a PS4 en el saco hasta que tu la has metido. Lo que defiendo es que XboxONE es mucho mas potente que lo que los frios numeros de 1,31Tflops dicen... al igual que los 240Gflops de la GPU de Xbox360 no representaban la potencia real de la consola, que estuvo en paridad durante toda la generacion contra los 1,8Tflops del RSX de PS3 (sisi, he escrito bien, 1,8Tflops de la GPU de PS3. http://www.ign.com/articles/2005/05/16/ ... ch-specs-2 )


Se perfectamente las chorradas que Sony dijo en su momento y las mentiras que soltó. No hagas tu lo mismo. Tenga algo más de clase. Si tu dices que xbox tiene 4 tflops estas diciendo que tiene mas el doble de rendimiento que ps4. Directa o indirectamente lo estas diciendo. Y no solo eso si no que tiene mas rendimiento que muchos pcs que ahora mismo defenestran en rendimiento a las dos consolas. Ya te digo que pobre jaguar lo que va a sufrir para darla de comer. Los 240a Gflosp de xbox 360 representaba la potencia real de la consola que era en gpu un 30% o 40% superior a la de ps3. A la potencia real de la ps3 no la la inventada por Sony.


¿No me digas que hemos pasado a no creer en fuentes primarias? https://www.youtube.com/watch?v=OtZ-rK349aY#t=804

no es justo que por un lado me pidas que ignore fuentes primarias, y que por el otro me acuses que no tengo fuentes primarias.
f5inet escribió:
¿No me digas que hemos pasado a no creer en fuentes primarias? https://www.youtube.com/watch?v=OtZ-rK349aY#t=804

no es justo que por un lado me pidas que ignore fuentes primarias, y que por el otro me acuses que no tengo fuentes primarias.


Sony mintió descaradamente con ps3. Lo sabe todo el mundo que quiera saberlo de la forma mas ruin y mezquina que recuerdo. Y mantuvo la mentira hasta la mitad de la gen con humo y basura propagandística. Si me dices que ps4 no tiene el rendimiento que dice Sony te puedo creer si me aportas las pruebas necesarias para ello pero si me dices que microsoft miente, no te creo porque no lo ha hecho nunca cuando ha dado especificaciones de hardware. Esta discusión con ps3 vs xbox 360 la tuve la last gen pero a la inversa. Sistematicamente fanbois e intoxicadores me llamaban hater de Sony por decirles justamente la realidad. Es justo lo que estais haciendo vosotros ahora. LA diferencia es que por suerte no representais (al menos oficialmente) a microsoft y por tanto no es ella la que esta mientiendo como hizo Sony en su moment. Microsoft no ha ocultado información y a la vista esta esta publicación en el IEEE que no tenía ni porque hacerla. La ha hecho para promover la divulgación cientifica de un chip que me parece como he dicho muy interesante.

¿No me digas que hemos pasado a no creer en fuentes primarias? https://www.youtube.com/watch?v=OtZ-rK349aY#t=804

no es justo que por un lado me pidas que ignore fuentes primarias, y que por el otro me acuses que no tengo fuentes primarias.



No, si Sony dira misa, pero ni la GPU, ni el sistema completo de PS3, tenian ni por asomo 1,8 Teraflops, es mas, en Flops la GPU de la 360 llevaba la ventaja. Rondaban los 200 GF en ambos casos.

Creo que isma82 es el que esta dando en el clavo, mas que el amigo Polysteres, que aunque tiene sus preferencias y se nota, esta siendo bastante mas realista que algunos con los 4 Teraflops.

El problema es haber visto un 50% more power en todas partes y de repente los multis actuales son mejores en One (AC Unity, COD AW, GTA5).


Como? Unity es el unico de los que citas que puede ser mejor en one, COD: AW tiene mejor framerate en One pero menor resolucion (1360x1080p con subidas a 1920x1080p vs 1920x1080p constantes), y GTA V es directamente peor en One porque tiene algun efecto reducido y menos densidad de follaje.
isma82 escribió:[...]Es justo lo que estais haciendo vosotros ahora.[...]


perdona, me acabo de perder... ¿quien es 'vosotros'?
Cyborg_Ninja escribió:

¿No me digas que hemos pasado a no creer en fuentes primarias? https://www.youtube.com/watch?v=OtZ-rK349aY#t=804

no es justo que por un lado me pidas que ignore fuentes primarias, y que por el otro me acuses que no tengo fuentes primarias.



No, si Sony dira misa, pero ni la GPU, ni el sistema completo de PS3, tenian ni por asomo 1,8 Teraflops, es mas, en Flops la GPU de la 360 llevaba la ventaja. Rondaban los 200 GF en ambos casos.

Creo que isma82 es el que esta dando en el clavo, mas que el amigo Polysteres, que aunque tiene sus preferencias y se nota, esta siendo bastante mas realista que algunos con los 4 Teraflops.

El problema es haber visto un 50% more power en todas partes y de repente los multis actuales son mejores en One (AC Unity, COD AW, GTA5).


Como? Unity es el unico de los que citas que puede ser mejor en one, COD: AW tiene mejor framerate en One pero menor resolucion (1360x1080p con subidas a 1920x1080p vs 1920x1080p constantes), y GTA V es directamente peor en One porque tiene algun efecto reducido y menos densidad de follaje.


Tanto da en el clavo que defiende sin razón alguna que ps4 es un 30% más potente, no sé exactamente cómon llega a ese número.

Cod tiene resolución dinámica para tener un mejor resultado visual y de experiencia de usuario. Tanto que hasta los nada objetivos DF se preguntaban cómo no se había implementado así en ps4.

Y gtaV en ps4 es un despropósito contínuo de niebla. Antes la nítidez de One que ver 4 hierbas bien cerca y el resto como el culo.

Pero a lo que iba con esto es que si existiera ese 50 u 30% de ps4 sobre One desde luego no tendriamos que andar comparando, la diferencia seria notoria.
Pero si esta siendo generoso, la GPU de PS4 es sobre el papel un 40% mas potente, y contando con mas ROPs, mas Textures Units... los multis son la mejor manera de medir (que se han reducido las diferencias hacia una mas realista, nada de un 100% superior como COD: Ghost como a principios de generacion), los desarrolladores siempre comentan que "Es un poco mas potente" (refiriendose a la maquina de la competencia), etc etc.


Otra cosa es que creais las historias para no dormir de Misterxmedia, Flashbackman y compañia.

Y gtaV en ps4 es un despropósito contínuo de niebla. Antes la nítidez de One que ver 4 hierbas bien cerca y el resto como el culo.


No inventes cuentos, tienes multitud de comparativas reales y son 1:1 en el apartado visual, con un rendimiento distinto (PS4 cae mas en algunas zonas recargadas de trafico y One mas con los efectos alpha) pero PS4 lleva la ventaja en el apartado visual permitiendo aumentar la densidad del follaje en algunas zonas precisamente por su GPU. Que siempre teneis la constumbre de inventar nitidez extra o mejores texturas cuando no hay nada que rascar.
f5inet escribió:
isma82 escribió:[...]Es justo lo que estais haciendo vosotros ahora.[...]


perdona, me acabo de perder... ¿quien es 'vosotros'?

Tu y todos los que estáis diciendo que xbox one tiene doble gpu. Sabes perfectamente a lo que me refiero.
17587 respuestas