chris76 escribió:Busca por el foro privado que tiene montado por 3djuegos y lo encontraras,junto a otras barbaridades,papatuelo te lo puede confirmar tambien....
Dicoleo escribió:chris76 escribió:Busca por el foro privado que tiene montado por 3djuegos y lo encontraras,junto a otras barbaridades,papatuelo te lo puede confirmar tambien....
Eres tu el que ha afirmado tal cosa . Por lo que deberías ser tu el que aportes el link afirmando eso o el que quedara como mentiroso seras tu.
Cuando alguien a firma algo de otra persona lo mínimo es tener pruebas no decir : busca por ahí .
( y conste que no se si es vedad o no . Y dudo que multiplique x4 la consola ). Pero las cosas como son. Si acusas . Pon pruebas .
chris76 escribió:Yo lo lei en su momento y no voy a perder el tiempo con esas tonterias,el que le interese el tema ya sabe donde buscar,incluso creo que en este mismo hilo por detras esta puesto
P.D: y por la misma regla de tres,no me llames mentiroso gratuitamente y un poco de respeto
Horizonte de sucesos escribió:@chris76 No inventes cari
Vamos ha hacer una cosa, si vas a venir aquí a señalar, a acusar, o a poner palabras en la boca de la gente, te vienes con los deberes hechos y pones los enlaces y las frases. Porque si te vas a limitar a mentir, difamar y calumniar te pido moderación y santas pascuas.
@Jugueton No, esta consola está bien hecha.
Horizonte de sucesos escribió:@chris76 No inventes cari
Vamos ha hacer una cosa, si vas a venir aquí a señalar, a acusar, o a poner palabras en la boca de la gente, te vienes con los deberes hechos y pones los enlaces y las frases. Porque si te vas a limitar a mentir, difamar y calumniar te pido moderación y santas pascuas.
@Jugueton No, esta consola está bien hecha.
papatuelo escribió:argam escribió:
Cosas interesantes:
-Microsoft lleva anyos utilizando la validacion del disenyo HW a traves de cosimuladores SW/HW, en lo que dijo que llevan mucha ventaja al resto de fabricantes.
-Tienen un emulador HW, hecho por Cadence, que puede emular la friolera de 1/3 del SoC de Xbox One . Hablamos de un cacharro que cuesta muchos millones de dolares.
-Remarco como cosa fundamental (y esto ya lo habia remarcado alguien por aqui por el foro, pero no recuerdo quien) el tema de la memoria coherente entre CPU y GPU.
En fin, que estuvo muy interesante.
Un saludo!
Puedes explicar algo más? Por ejemplo ¿que es eso de un emulador HW que emula un tercio del soc???
papatuelo escribió:@argam
Muchas gracias por la respuesta.
Podrias hacer una valoracion del hardware a partir de esa simulacion?
Creo q podriamos decir entonces q no es hardware AMD al uso, no?
De lo contrario seria AMD el q lo testara, o no?
Horizonte de sucesos escribió:@chris76 No inventes cari
Vamos ha hacer una cosa, si vas a venir aquí a señalar, a acusar, o a poner palabras en la boca de la gente, te vienes con los deberes hechos y pones los enlaces y las frases. Porque si te vas a limitar a mentir, difamar y calumniar te pido moderación y santas pascuas.
@Jugueton No, esta consola está bien hecha.
marx666 escribió:Yo lo de la potencia x4 me lo creo, me acabo de comprar una One y la tengo en mi dormitorio, alguna vez me levanté por la noche de repente, aunque seguí haciéndome el dormido y para mi sorpresa vi algunos duendecillos metiendo chips en mi consola, yo te creo
Nuhar escribió:Aqui hay carnaza de la buena
Ubisoft GDC Presentation of PS4 & X1 GPU & CPU Performance
http://www.redgamingtech.com/ubisoft-gd ... rformance/
Dicoleo escribió:Nuhar escribió:Aqui hay carnaza de la buena
Ubisoft GDC Presentation of PS4 & X1 GPU & CPU Performance
http://www.redgamingtech.com/ubisoft-gd ... rformance/
¿Un resumen para torpes como yo ?
darksch escribió:Pero esa gente es que:
- No está usando la eSRAM para computar y está tirando de DDR3, cuando dice bien claro "bottleneck = memory bandwidth"
- Encima han hecho una versión específica optimizada para PS4, mientras que en XOne ni se han molestado en intentar buscar por donde optimizar, ni siquiera a ver en que usamos la eSRAM como dije antes
Cojonudo, apilamos eSRAM sobre la APU para tener PIM y nos lo pasamos por el forro...
Que les pregunten a Remedy como han hecho esa magia...¡BRUJERÍA!
Y más aún, como resulta que la PS3 les sale el TRIPLE que la X360, y luego ya lo vemos en los juegos. Si lo que querían era hacer publicidad a cierta marca, lo llevan bien.
Ay madre estos de Ubi
I feel bad for my tech friends who follow me. Sorry so much game stuff lately. Win10, DX12 stuff soon. Lots coming.
good stuff coming. That's about all I can say. MS is doing some amazing stuff.
jose1024 escribió:Tiene mas Ace y mas Cu, normal que rinda mas en GPGPU, de todos modos la Gpu tambien tiene que dibujar.
eloskuro escribió:jose1024 escribió:Tiene mas Ace y mas Cu, normal que rinda mas en GPGPU, de todos modos la Gpu tambien tiene que dibujar.
tambien están ahí los coprocesadores, los move engines y el shape , que no se cuentan nunca. Algo harán Porque exactamente lo que hacen es quitar trabajo a la CPU y GPU
f5inet escribió:El Cell era increiblemente potente, una autentica bestia parda de la epoca. y muchisimo mas potente que el Xenon de 360. lo que era una autentica porqueria era el RSX de nVidia. de hecho, muchos juegos AAA y first party de PS3 usaban el RSX para rasterizar y 'cocinaban' la iluminacion defered en un par de SPEs mientras el RSX estaba ocupado.
de hecho, la filosofia de Cell era la que deberia haber continuado, pero ambas compañias han vuelto a x86.
ESRAM “Makes everything better” – a few common uses would be Render Targets, Compute Tasks, Textures and Geometry
The final is Asynchronously DMA resources in/out of the ESRAM, which could well leverage the power of the compute commands the the Xbox One’s move engines. This would ensure that there’s always a flow of the most important data inside the ESRAM, and would help to optimize its use
It’s unfortunate Ubisoft were rather quiet on the Xbox One front – we do have a little information
mitardo escribió:darksch escribió:Pero esa gente es que:
- No está usando la eSRAM para computar y está tirando de DDR3, cuando dice bien claro "bottleneck = memory bandwidth"
- Encima han hecho una versión específica optimizada para PS4, mientras que en XOne ni se han molestado en intentar buscar por donde optimizar, ni siquiera a ver en que usamos la eSRAM como dije antes
Cojonudo, apilamos eSRAM sobre la APU para tener PIM y nos lo pasamos por el forro...
Que les pregunten a Remedy como han hecho esa magia...¡BRUJERÍA!
Y más aún, como resulta que la PS3 les sale el TRIPLE que la X360, y luego ya lo vemos en los juegos. Si lo que querían era hacer publicidad a cierta marca, lo llevan bien.
Ay madre estos de Ubi
No nos engañemos, "a bote pronto" la GPU de la PS4 es el doble de rápida. Cierto que la Juana se guarda un par de ases en la manga y va a sacar un full pero la PS4 empezó con un poquer.
salocin21 escribió:mitardo escribió:darksch escribió:Pero esa gente es que:
- No está usando la eSRAM para computar y está tirando de DDR3, cuando dice bien claro "bottleneck = memory bandwidth"
- Encima han hecho una versión específica optimizada para PS4, mientras que en XOne ni se han molestado en intentar buscar por donde optimizar, ni siquiera a ver en que usamos la eSRAM como dije antes
Cojonudo, apilamos eSRAM sobre la APU para tener PIM y nos lo pasamos por el forro...
Que les pregunten a Remedy como han hecho esa magia...¡BRUJERÍA!
Y más aún, como resulta que la PS3 les sale el TRIPLE que la X360, y luego ya lo vemos en los juegos. Si lo que querían era hacer publicidad a cierta marca, lo llevan bien.
Ay madre estos de Ubi
No nos engañemos, "a bote pronto" la GPU de la PS4 es el doble de rápida. Cierto que la Juana se guarda un par de ases en la manga y va a sacar un full pero la PS4 empezó con un poquer.
Claro claro por eso los juegos exclusivos de one se ven tan mal.. Ryse, FH2, y sobre todo el brutal gameplay de QB que requiere el doble de potencia de la usada en Ryse e incluye iluminacion raytracing... Y por el mismo motivo los juegos en ps4 se ven mucho mejor no? Es que las cosas que hay que oír.
Bueno sobre el estudio este,la propia ubisoft explico que la versión de ps4 estaba adaptada para usar todos los nucleos de la GPU mientras que la de one era un port dx11 que solo usaba dos de los núcleos y sin usar además la SRAM, así que de coña.
Lo que pasa es que claro si lo hacían bien se le daban la vuelta los resultados y Sony ya no te lo paga.
salocin21 escribió:Bueno sobre el estudio este,la propia ubisoft explico que la versión de ps4 estaba adaptada para usar todos los nucleos de la GPU mientras que la de one era un port dx11 que solo usaba dos de los núcleos y sin usar además la SRAM, así que de coña.
Lo que pasa es que claro si lo hacían bien se le daban la vuelta los resultados y Sony ya no te lo paga.
jose1024 escribió:eloskuro escribió:jose1024 escribió:Tiene mas Ace y mas Cu, normal que rinda mas en GPGPU, de todos modos la Gpu tambien tiene que dibujar.
tambien están ahí los coprocesadores, los move engines y el shape , que no se cuentan nunca. Algo harán Porque exactamente lo que hacen es quitar trabajo a la CPU y GPU
Los Ace en Gcn estan para reprogramar los Cu para tareas de GPGPU, en Xbox One tambien, pero Ps4 tiene mas, no hay que darle mas vueltas, el mismo programa con mas recursos rinde mas.
mitardo escribió:salocin21 escribió:Que rápido te has quedado sin argumentos verdad campeón?
Tu sigue defendiendo la superioridad técnica de ps4.. Que te esperan 10 años largos y duros.
Yo te esperare jugando a los juegos realmente nexgen en One.
Venga un saludo machote
Pero que estas ladrando ?
La GPU es un único componente y vosotros creéis que la GPU es un conjunto de CPU+GPU+MEM+API.
No se para que me molesto si la compresión lectora de algunos es equivalente a la de un niño de 4 años.
Nuhar escribió:No trataba de crear polémica sobre rivalidades.
La idea era ver las incoherencias de Ubisoft, donde en Agosto dice A, y ahora dice B.
Nuhar escribió:No trataba de crear polémica sobre rivalidades.
La idea era ver las incoherencias de Ubisoft, donde en Agosto dice A, y ahora dice B.
@salocin21: los post de mitardo los he reportado yo al igual que los tuyos, porque estais creando un flame que aporta 0 al hilo entre uno y otro. Porque sus mensajes no aportan, pero los tuyos tampoco.
salocin21 escribió:
Te he ido a reportar y ya estabas reportado así que sigue así campeon.
darksch escribió:
Creo que lo que @mitardo quería decir es que como componente único, cerrado y en plan prueba de laboratorio cargando todo en un único componente les da esos resultados.
mitardo escribió:salocin21 escribió:
Te he ido a reportar y ya estabas reportado así que sigue así campeon.
darksch escribió:
Creo que lo que @mitardo quería decir es que como componente único, cerrado y en plan prueba de laboratorio cargando todo en un único componente les da esos resultados.
Exacto. Menos mal que aun hay gente que sabe leer y no se siente ofendida por cosas que nadie ha dicho.
salocin21 escribió:mitardo escribió:salocin21 escribió:
Te he ido a reportar y ya estabas reportado así que sigue así campeon.
darksch escribió:
Creo que lo que @mitardo quería decir es que como componente único, cerrado y en plan prueba de laboratorio cargando todo en un único componente les da esos resultados.
Exacto. Menos mal que aun hay gente que sabe leer y no se siente ofendida por cosas que nadie ha dicho.
Pero es que probar un GPU sin tener en cuenta tanto la api como el pool de memoria no tiene ni pies ni cabeza, ya que la GPU al final vive precisamente de como la atacas con datos y sobre todo como es capaz de sacarlas a la memoria.
Y mitardo no me ofende lo que no dices, si no las faltas de respeto, cosa que yo no he echo.