Xbox One ( Solo temas sobre Xbox One )

Sí, lo de la dGPU puede descartarse oficialmente ya (creo que Riwer posteó el twitter de Penello donde decía abiertamente).

Que haya un NDA no digo que no, pero que lo que están callando será otra cosa, no la dGPU, que ya ha sido desmentida oficialmente como digo.
Vics94 escribió:Cada vez veo el futuro mas negro no se porque y me fastidiaria mucho porque ya he hecho mi apuesta por la xbox one y no me gustaria llevarme el gran chasco...


A ver, no entiendo el desánimo generalizado, está todo sacado fuera de contexto. ¿Es que nadie tiene memoria y no sabe-recuerda que es Microsoft? Micro siempre ha estado en la vanguardia de la técnica y no iba a ser menos ahora.

Han desarrollado un hard para One muy "custom", algo único. No se puede comparar ni con PS4 ni con un PC, porque no existe nada igual. PS4 es más un PC muy potente, como muchos comentan (lo cual es cojonudo), pero One no sigue esa filosofía, ha sido concebida especialmente desde 0, con un hard exclusivo, que aunque en números cada componente sea inferior al de la competencia, en conjunto el sistema gana enteros en rendimiento ya que ha sido concebido para trabajar al unísono, sin cuellos de botella, sin calentamientos, todo de manera muy eficiente y bajo el software de Micro. De esto te das cuenta al leer las especs. Se nota que Micro quería hacer las cosas a su manera. Tu no puedes hacer un pc igual a una One, puedes montar mucho hard del caro en tu torre y conseguir resultados tremendos, pero por 500 € no vas a encontrar algo mejor, ya que como he citado antes, es una arquitectura única que no se puede comparar con la competencia, son sencillamente, diferentes. Si queréis comparar, lo mejor que podéis hacer es comparar los juegos, pero no las máquinas, no tiene nada que ver una con la otra.
Cada vez que comparáis ambas consolas muere un gatito xDDDD
Forzimbras escribió:Ha escrito otra cosa Penello:

Last post? Not even close. Sorry - still many more meme's yet to come.

As was kindly suggested by someone in a PM, it's unlikely anything more I'm going to post on this topic will make it better. People can believe me and trust I'm passing on the right information, or believe I'm spreading FUD and lies.

When I first started coming on, I said what I wanted to do was speak more directly and more honestly with the community, clarifying what we could because you guys have more detailed questions then we had been dealing with.

Regarding the power, I've tried to explain areas that are misunderstood and provide insight from the actual engineers on the system. We are working with the technical folks to get more in-depth. As I said - they are more credible then I am, and can provide a lot more detail. Best I leave it to them.

Next stop - launch itself. Only then, when the games release and developers will inevitably be asked to compare the systems, will we there be a satisfying answer.

Until then, as I have been, I'll try and answer what I can. But I'm not going to add more on this topic.


Traducido resumidamente:

Como varios foreros le estaban diciendo a Penello que para escribir tonterías, mejor que no escribiese, Penello dice que no será su último post en GAF, pero sí en ese hilo, porque él en todo momento ha ido con toda la buena fe del mundo a hablar de la forma mas honesta y directa con la comunidad, y que le crean o no le crean si no quieren.

Que en relación a la potencia, ha intentado explicar áreas en las que había malentendidos y proporcionar una perspectiva de los ingenieros responsables del sistema.

Se remite al lanzamiento de la consola e invita a esperar, diciendo que cuando los juegos de las distintas plataformas estén en la calle, que entonces los desarrolladores juzguen a One por lo que podrán ver.

El problema es que se sabe que lo que dice Penello es técnicamente incorrecto, así que si a él le informa un técnico entonces el problema es mayor porque implica que o el técnico miente o no hace su trabajo de manera correcta.
Creo que ambas son grandes máquinas y ya dependerá de cada compañía como desarrolle sus juegos y las herramientas que tengan para facilitarles esa tarea.
Ami me da igual que sea menos potente, seguire comprandola de salida. Luego cuando salgan juego que me gusten de PS4 entoces la cogere. Pero por ahora de salida me gustan mas los juegos de xbox y en ps4 solo me llama un poquito el Killzone. Pero vamos que las dos van a ser grandes consolas, creo que las dos compañias van apostar fuerte por derrotar ala otra.
La pregunta seria cual es el objetivo real de Penello para trollear al consumidor mareandolo con sandeces, el consumidor se merece mas respeto
.
Editado por ahona. Razón: Flame
futuro mad max escribió:La pregunta seria cual es el objetivo real de Penello para trollear al consumidor mareandolo con sandeces, el consumidor se merece mas respeto



"si no puedes convencerlos confúndelos." - Harry Truman

fácil, sencillo y suele funcionar en el 99% de los casos... y a eso es a lo que me refería con mi post de dejar de postear rumores sobre potencias ocultas judío masónicas...
Está claro que Microsoft ha hecho lo mismo que Apple. Ha creado una plataforma donde hardware y software se apoya uno sobre otro. Es una simbiosis. Micro no necesita de potencia bruta para que su consola haga lo mismo o más que la de la competencia. Lo mismo que iPhone y iPad van de puta madre sin necesidad de procesadores punteros y caros.
Horizonte de sucesos escribió:En verdad lo están diciendo.

Ves las specs de ONE y ves que son peores que las de PS4. Pero luego te decie que no va a haber diferencias en los juegos.

Pues ahí hay dos opciones:

1- mienten
2- tienen un As en la manga

O simplemente que la diferencia no es la que venden los fanboys de sony y no es suficiente para ver una diferencia palpable en los juegos, que es por la que si yo tuviera que apostar apostaria, y que cuadra con los juegos vistos.
Al final va a resultar que los ingenieros de MS son enchufados que lo máximi que han aprendido a hacer es instalar Joomla.

Una ima... Un gameplay vale más que mil palabras, ¿No? Y ahí creo que esta claro quién no ha mostrado humo y si realidades.
jusilus escribió:Está claro que Microsoft ha hecho lo mismo que Apple. Ha creado una plataforma donde hardware y software se apoya uno sobre otro. Es una simbiosis. Micro no necesita de potencia bruta para que su consola haga lo mismo o más que la de la competencia. Lo mismo que iPhone y iPad van de puta madre sin necesidad de procesadores punteros y caros.


Como me ha gustado este comentario,un 10 colega.Saludos
jusilus escribió:Está claro que Microsoft ha hecho lo mismo que Apple. Ha creado una plataforma donde hardware y software se apoya uno sobre otro. Es una simbiosis. Micro no necesita de potencia bruta para que su consola haga lo mismo o más que la de la competencia. Lo mismo que iPhone y iPad van de puta madre sin necesidad de procesadores punteros y caros.

El problema es que eso es la definición de consola. No es nada diferenciador.
no podeis escribir sin insultar? :-?
chorizito escribió:
f5inet escribió:[...]
eso es cierto 'a medias'. es cierto que Sony ya no puede cambiar nada de su actual PS4, pero al no haber llegado al mercado AUN, si que pueden cancelar la salida al mercado si ven que tienen una maquina muy inferior a la competencia.

XboxONE + dGPU rumoreada, se merendaria a la actual PS4, y eso es algo que Sony no se puede permitir. para ellos, seria preferible retrasar PS4 y sacarla mas potente que XboxONE aunque sea 2 años mas tarde, que sacar un producto muy inferior e intentar convivir con ello 5-7 años. Sin embargo, es algo que no pueden hacer si venden TAN SOLO UNA PS4. en el momento que vendan una sola PS4, ya no pueden sacarla o jubilarla del mercado sin darle un tiro de muerte a la marca PlayStation.



No te has enterado que lo de la dGPU es un bulo????

confirmado por penello


si, me he enterado que no existe ninguna dGPU separada del SoC, cosa que ya sabia desde que se vieron imagenes de la placa de la consola. Dentro del SoC no sabemos lo que hay.

pero no os ilusioneis, es MUY POCO PROBABLE que haya alguna dGPU dentro del SoC. lo mas seguro es que el tema del NDA de AMD<->Microsoft sea el uso de la serie VolcanicIslands (GCN2) en la GPU.

y una cosa mas: parece que nadie esta mirando al mas perjudicado de todo este NDA de AMD/MS: nVidia. Si AMD presenta un core grafico muy superior a su GCN y es capaz de implementar HSA a cualquier PC via Windows 8.1, nVidia estaria en una posicion muy comprometida.
futuro mad max escribió:no podeis escribir sin insultar? :-?

No hay insultos hombre, no nos la cojamos con papel de fumar ;)
ubn escribió:Al final va a resultar que los ingenieros de MS son enchufados que lo máximi que han aprendido a hacer es instalar Joomla.

Una ima... Un gameplay vale más que mil palabras, ¿No? Y ahí creo que esta claro quién no ha mostrado humo y si realidades.


+1
Horizonte de sucesos escribió:
daymaster escribió:Hombre, yo no espor flamear , pero todos los comentarios sobre la ps4 de desarrolladoras externas es que son y a montado un hardware de manera muy inteligente y eficiente, si se dice que la ps4 tiene más potencia bruta y lo sumamos con estos comentarios.... Blanco y en botella.

De la one aun no e visto comentarios alabandola sin ser la propia Micro.

Creo.


Esto no es cierto, mismamente Kojima a opinado respecto a ONE

http://zonaforo.meristation.com/kojima- ... 05394.html


En estas declaraciones Kojima no la compara con ninguna máquina en concreto, solo dice que es potente, leche! es next gen! como para que no fuera potente!! [+risas]
@NeCLaRT

El ridiculo lo hace un fanatico que no acepta opiniones contrarias, yo he alabado todos los cambios positivos y el giro de 180 grados que ha dado Microsft con sus politicas y por eso a dia de hoy, One es una opcion para mi, pese a ser menos potente.


Que no acierto una? jaja, menudo caradura, en lo unico que me equivoco es en los 7gb de ram para juegos, finalmente son 6. En todo lo demas digo lo que habia en ese momento, comprenderas que yo no tengo culpa de que Microsft lo cambie todo en unos meses, y gracias a dios que lo ha cambiado, ha pasado de ser una consola que no compraria ni pagandome a una consola muy completo y superior en bastantes aspectos a ps4.
Traducción de Penello:

I see my statements the other day caused more of a stir than I had intended. I saw threads locking down as fast as they pop up, so I apologize for the delayed response.

I was hoping my comments would lead the discussion to be more about the games (and the fact that games on both systems look great) as a sign of my point about performance, but unfortunately I saw more discussion of my credibility.

So I thought I would add more detail to what I said the other day, that perhaps people can debate those individual merits instead of making personal attacks. This should hopefully dismiss the notion I'm simply creating FUD or spin.

I do want to be super clear: I'm not disparaging Sony. I'm not trying to diminish them, or their launch or what they have said. But I do need to draw comparisons since I am trying to explain that the way people are calculating the differences between the two machines isn't completely accurate. I think I've been upfront I have nothing but respect for those guys, but I'm not a fan of the mis-information about our performance.

So, here are couple of points about some of the individual parts for people to consider:

• 18 CU's vs. 12 CU's =/= 50% more performance. Multi-core processors have inherent inefficiency with more CU's, so it's simply incorrect to say 50% more GPU.
• Adding to that, each of our CU's is running 6% faster. It's not simply a 6% clock speed increase overall.
• We have more memory bandwidth. 176gb/sec is peak on paper for GDDR5. Our peak on paper is 272gb/sec. (68gb/sec DDR3 + 204gb/sec on ESRAM). ESRAM can do read/write cycles simultaneously so I see this number mis-quoted.
• We have at least 10% more CPU. Not only a faster processor, but a better audio chip also offloading CPU cycles.
• We understand GPGPU and its importance very well. Microsoft invented Direct Compute, and have been using GPGPU in a shipping product since 2010 - it's called Kinect.
• Speaking of GPGPU - we have 3X the coherent bandwidth for GPGPU at 30gb/sec which significantly improves our ability for the CPU to efficiently read data generated by the GPU.

Hopefully with some of those more specific points people will understand where we have reduced bottlenecks in the system. I'm sure this will get debated endlessly but at least you can see I'm backing up my points.

I still I believe that we get little credit for the fact that, as a SW company, the people designing our system are some of the smartest graphics engineers around – they understand how to architect and balance a system for graphics performance. Each company has their strengths, and I feel that our strength is overlooked when evaluating both boxes.

Given this continued belief of a significant gap, we're working with our most senior graphics and silicon engineers to get into more depth on this topic. They will be more credible then I am, and can talk in detail about some of the benchmarking we've done and how we balanced our system.

Thanks again for letting my participate. Hope this gives people more background on my claims


He visto que mis declaraciones del otro dia produjeron mas confusión y preocupación de lo que yo creía. He visto hilos que se han cerrado automáticamente conforme iban siendo posteados, así que pido disculpas por haber tardado tanto en responder.

Esperaba que mis comentarios hiciesen que la gente hablase de los juegos (y el hecho de que los juegos en ambas plataformas se ven muy bien) como resultado de mi declaración sobre el rendimiento, pero desgraciadamente lo único que se puso en duda fué mi credibilidad.

Asi que voy a añadir detalles a lo que dije el otro dia que hagan que la gente pueda discutir sobre ellos en vez de hacer ataques personales. Esto debería de acabar con la idea de que sólo creo desinformación y confusión.

Quiero que quede claro: no estoy hechando mierda sobre sony. No trato de ningunearlos, ni su salida ni lo que han dicho. Pero necesito aportar un par de cosas a las comparaciones ya que estoy tratando de explicar que la forma en que la gente calcula el rendimiento relativo de una plataforma con respecto a la otra no es completamente exacto.

Aqui unos cuantos puntos que la gente debería de considerar tambien:

-18 CU vs 12 CU =/= 50% mas de rendimiento. Los procesadores con varios cores tienen una ineficiencia inherente cuanto mas CU's haya, asi que es simplemente incorrecto que sea un 50% mas de GPU.

-Además, cada uno de nuestros CU's es un 6% mas potente, y no hablo precisamente de un 6% mas de velocidad.

-Tenemos mas ancho de banda en la memoria. Teóricamente el GDDR5 son 176 GB/s, mientras que nosotros tenemos un pico teórico de 272 Gb/s (68 Gb/s de la DDR3 + 204 Gb/s de la ESRAM). La ESRAM puede hacer funcion de lectura/escritura en un mismo ciclo de reloj por lo que la cifra del ancho de banda siempre ha estado equivocada.

-Tenemos como mínimo un 10% mas de CPU. Aparte tenemos mejor sonido y el chip libera ciclos de reloj de la CPU.

-Entendemos que el GPGPU y su importancia es relevante. Microsoft inventó el "Direct Compute", y ha estado usando el GPGPU en uno de sus productos desde 2010, el Kinect.

-Hablando de GPGPU, tenemos 3 veces el ancho de banda coherente a 30Gb/s, que aumenta significativamente la eficiencia de lectura de datos que envia la GPU a la CPU.

Espero que con esos puntos específicos la gente comience a entender como hemos reducido todos los cuellos de botella que se podrían generar en el sistema. Estoy seguro que todo esto se debatira intesamente pero por lo menos podeis ver que puedo argumentar lo que estoy diciendo.

Todavía creo que no se entiende el esfuerzo que supone diseñar un hardware siendo MS como sabeis una compañía de softwre, pero tenemos a algunos de los mejores ingenieros expertos en gráficos trabajando en el diseño de nuestro sistema, los cuales entienden como crear una arquitectura y equilibrala para sacar el máximo rendimiento gráfico posible. Cada compañía tiene sus fuertes, y creo que nuestros puntos fuertes no se tienen en cuenta cuando se comparan ambas plataformas.


Dada la convicción que se tiene de que la diferencia es notable, estamos trabajando con nuestros ingenieros para profundizar mas todavía en este asunto. Ellos tendrán mas credibilidad que yo en este asunto, y pueden hablar en mas detalle acerca de las pruebas que hemos estado haciendo y como hemos equilibrado nuestro sistema.


Gracias de nuevo por dejarme participar. Espero que esto le de a la gente mas información acerca de mis declaraciones.
f5inet escribió:
pero no os ilusioneis, es MUY POCO PROBABLE que haya alguna dGPU dentro del SoC. lo mas seguro es que el tema del NDA de AMD<->Microsoft sea el uso de la serie VolcanicIslands (GCN2) en la GPU.


Más que nada por que eso iría en contraposición del mismo significado de dGPU.
PilaDePetaca escribió:Traducción de Penello:

I see my statements the other day caused more of a stir than I had intended. I saw threads locking down as fast as they pop up, so I apologize for the delayed response.

I was hoping my comments would lead the discussion to be more about the games (and the fact that games on both systems look great) as a sign of my point about performance, but unfortunately I saw more discussion of my credibility.

So I thought I would add more detail to what I said the other day, that perhaps people can debate those individual merits instead of making personal attacks. This should hopefully dismiss the notion I'm simply creating FUD or spin.

I do want to be super clear: I'm not disparaging Sony. I'm not trying to diminish them, or their launch or what they have said. But I do need to draw comparisons since I am trying to explain that the way people are calculating the differences between the two machines isn't completely accurate. I think I've been upfront I have nothing but respect for those guys, but I'm not a fan of the mis-information about our performance.

So, here are couple of points about some of the individual parts for people to consider:

• 18 CU's vs. 12 CU's =/= 50% more performance. Multi-core processors have inherent inefficiency with more CU's, so it's simply incorrect to say 50% more GPU.
• Adding to that, each of our CU's is running 6% faster. It's not simply a 6% clock speed increase overall.
• We have more memory bandwidth. 176gb/sec is peak on paper for GDDR5. Our peak on paper is 272gb/sec. (68gb/sec DDR3 + 204gb/sec on ESRAM). ESRAM can do read/write cycles simultaneously so I see this number mis-quoted.
• We have at least 10% more CPU. Not only a faster processor, but a better audio chip also offloading CPU cycles.
• We understand GPGPU and its importance very well. Microsoft invented Direct Compute, and have been using GPGPU in a shipping product since 2010 - it's called Kinect.
• Speaking of GPGPU - we have 3X the coherent bandwidth for GPGPU at 30gb/sec which significantly improves our ability for the CPU to efficiently read data generated by the GPU.

Hopefully with some of those more specific points people will understand where we have reduced bottlenecks in the system. I'm sure this will get debated endlessly but at least you can see I'm backing up my points.

I still I believe that we get little credit for the fact that, as a SW company, the people designing our system are some of the smartest graphics engineers around – they understand how to architect and balance a system for graphics performance. Each company has their strengths, and I feel that our strength is overlooked when evaluating both boxes.

Given this continued belief of a significant gap, we're working with our most senior graphics and silicon engineers to get into more depth on this topic. They will be more credible then I am, and can talk in detail about some of the benchmarking we've done and how we balanced our system.

Thanks again for letting my participate. Hope this gives people more background on my claims


He visto que mis declaraciones del otro dia produjeron mas confusión y preocupación de lo que yo creía. He visto hilos que se han cerrado automáticamente conforme iban siendo posteados, así que pido disculpas por haber tardado tanto en responder.

Esperaba que mis comentarios hiciesen que la gente hablase de los juegos (y el hecho de que los juegos en ambas plataformas se ven muy bien) como resultado de mi declaración sobre el rendimiento, pero desgraciadamente lo único que se puso en duda fué mi credibilidad.

Asi que voy a añadir detalles a lo que dije el otro dia que hagan que la gente pueda discutir sobre ellos en vez de hacer ataques personales. Esto debería de acabar con la idea de que sólo creo desinformación y confusión.

Quiero que quede claro: no estoy hechando mierda sobre sony. No trato de ningunearlos, ni su salida ni lo que han dicho. Pero necesito aportar un par de cosas a las comparaciones ya que estoy tratando de explicar que la forma en que la gente calcula el rendimiento relativo de una plataforma con respecto a la otra no es completamente exacto.

Aqui unos cuantos puntos que la gente debería de considerar tambien:

-18 CU vs 12 CU =/= 50% mas de rendimiento. Los procesadores con varios cores tienen una ineficiencia inherente cuanto mas CU's haya, asi que es simplemente incorrecto que sea un 50% mas de GPU.

-Además, cada uno de nuestros CU's es un 6% mas potente, y no hablo precisamente de un 6% mas de velocidad.

-Tenemos mas ancho de banda en la memoria. Teóricamente el GDDR5 son 176 GB/s, mientras que nosotros tenemos un pico teórico de 272 Gb/s (68 Gb/s de la DDR3 + 204 Gb/s de la ESRAM). La ESRAM puede hacer funcion de lectura/escritura en un mismo ciclo de reloj por lo que la cifra del ancho de banda siempre ha estado equivocada.

-Tenemos como mínimo un 10% mas de CPU. Aparte tenemos mejor sonido y el chip libera ciclos de reloj de la CPU.

-Entendemos que el GPGPU y su importancia es relevante. Microsoft inventó el "Direct Compute", y ha estado usando el GPGPU en uno de sus productos desde 2010, el Kinect.

-Hablando de GPGPU, tenemos 3 veces el ancho de banda coherente a 30Gb/s, que aumenta significativamente la eficiencia de lectura de datos que envia la GPU a la CPU.

Espero que con esos puntos específicos la gente comience a entender como hemos reducido todos los cuellos de botella que se podrían generar en el sistema. Estoy seguro que todo esto se debatira intesamente pero por lo menos podeis ver que puedo argumentar lo que estoy diciendo.

Todavía creo que no se entiende el esfuerzo que supone diseñar un hardware siendo MS como sabeis una compañía de softwre, pero tenemos a algunos de los mejores ingenieros expertos en gráficos trabajando en el diseño de nuestro sistema, los cuales entienden como crear una arquitectura y equilibrala para sacar el máximo rendimiento gráfico posible. Cada compañía tiene sus fuertes, y creo que nuestros puntos fuertes no se tienen en cuenta cuando se comparan ambas plataformas.


Dada la convicción que se tiene de que la diferencia es notable, estamos trabajando con nuestros ingenieros para profundizar mas todavía en este asunto. Ellos tendrán mas credibilidad que yo en este asunto, y pueden hablar en mas detalle acerca de las pruebas que hemos estado haciendo y como hemos equilibrado nuestro sistema.


Gracias de nuevo por dejarme participar. Espero que esto le de a la gente mas información acerca de mis declaraciones.

Ahí queda eso... Me parece correctísimo todo.
Se ha lucido Penello, esta recibiendo hostias en todos lados.
Xsato7 escribió:@NeCLaRT

El ridiculo lo hace un fanatico que no acepta opiniones contrarias, yo he alabado todos los cambios positivos y el giro de 180 grados que ha dado Microsft con sus politicas y por eso a dia de hoy, One es una opcion para mi, pese a ser menos potente.


Que no acierto una? jaja, menudo caradura, en lo unico que me equivoco es en los 7gb de ram para juegos, finalmente son 6. En todo lo demas digo lo que habia en ese momento, comprenderas que yo no tengo culpa de que Microsft lo cambie todo en unos meses, y gracias a dios que lo ha cambiado, ha pasado de ser una consola que no compraria ni pagandome a una consola muy completo y superior en bastantes aspectos a ps4.


siento contradecirte con lo de la ram de PS4, pero para el SO van 3,5, es decir, 8-3,5= 4,5 para juegos. Pero con la salvedad que de los 3,5 pueden destinar según que casos 1 Gb a otros menesteres.
Una duda que tengo y no se si se abra dicho. ¿El lector de Blu-ray de la One sera solo para formato normal o se podrán ver pelis en 3D?

Un saludo
Pues yo no veo nada criticable en el post de penello
VJMorenoC escribió:
Xsato7 escribió:@NeCLaRT

El ridiculo lo hace un fanatico que no acepta opiniones contrarias, yo he alabado todos los cambios positivos y el giro de 180 grados que ha dado Microsft con sus politicas y por eso a dia de hoy, One es una opcion para mi, pese a ser menos potente.


Que no acierto una? jaja, menudo caradura, en lo unico que me equivoco es en los 7gb de ram para juegos, finalmente son 6. En todo lo demas digo lo que habia en ese momento, comprenderas que yo no tengo culpa de que Microsft lo cambie todo en unos meses, y gracias a dios que lo ha cambiado, ha pasado de ser una consola que no compraria ni pagandome a una consola muy completo y superior en bastantes aspectos a ps4.


siento contradecirte con lo de la ram de PS4, pero para el SO van 3,5, es decir, 8-3,5= 4,5. Pero con la salvedad que de los 3,5 puden destinar según que casos 1 Gb a otros menesteres.


Si no me equivoco se desminintio ese informacion y se dijo que ya habian juegos que estaban utilizando 6gb de ram, vamos que algo logico serian 5+1 flexible.
pues a ver en que gastan esos 3,5 para SO en ps4 porque yo no he visto la velocidad de dashboard que tiene la one (cosa que me encanta [amor] )
Como no sea que el remote con psvita tire un monton, no lo entiendo.
pido perdon por el offtopic.
Xsato7 escribió:Se ha lucido Penello, esta recibiendo hostias en todos lados.


Tampoco hay que ver solo lo negativo.

Perrello sera lo que sera, pero cuantos directivos habeis visto que escriban en un foro?
Xsato7 escribió:
VJMorenoC escribió:
Xsato7 escribió:@NeCLaRT

El ridiculo lo hace un fanatico que no acepta opiniones contrarias, yo he alabado todos los cambios positivos y el giro de 180 grados que ha dado Microsft con sus politicas y por eso a dia de hoy, One es una opcion para mi, pese a ser menos potente.


Que no acierto una? jaja, menudo caradura, en lo unico que me equivoco es en los 7gb de ram para juegos, finalmente son 6. En todo lo demas digo lo que habia en ese momento, comprenderas que yo no tengo culpa de que Microsft lo cambie todo en unos meses, y gracias a dios que lo ha cambiado, ha pasado de ser una consola que no compraria ni pagandome a una consola muy completo y superior en bastantes aspectos a ps4.


siento contradecirte con lo de la ram de PS4, pero para el SO van 3,5, es decir, 8-3,5= 4,5. Pero con la salvedad que de los 3,5 puden destinar según que casos 1 Gb a otros menesteres.


Si no me equivoco se desminintio ese informacion y se dijo que ya habian juegos que estaban utilizando 6gb de ram, vamos que algo logico serian 5+1 flexible.


Te cito una fuente.
http://www.hobbyconsolas.com/noticias/p ... a-so-55123
Luego nos quejamos que haya gente que entre a trollear y flamear.

Vamos a centrarnos en la One, quejarnos de las cosas malas y alabar las buenas.
No se si os habeis fijado en una cosa:

• Adding to that, each of our CU's is running 6% faster. It's not simply a 6% clock speed increase overall.

-Además, cada uno de nuestros CU's es un 6% mas potente, y no hablo precisamente de un 6% mas de velocidad.


Si no es un 6% mas potente por velocidad, a que se refiere, ¿arquitectura,Volcanic Islands?.
Er Quillo escribió:Una duda que tengo y no se si se abra dicho. ¿El lector de Blu-ray de la One sera solo para formato normal o se podrán ver pelis en 3D?

Un saludo


Se podrán ver pelis en 3D. Está confirmado por Major nelson.
Este hilo de es de ps4, dejad de hablar de ella. Ni para comparar. Estoy arto de leer cosas de ps4 aqui....
Imagen

Para ir abriendo boca chicos!!!
futuro mad max escribió:
Xsato7 escribió:Se ha lucido Penello, esta recibiendo hostias en todos lados.


Tampoco hay que ver solo lo negativo.

Perrello sera lo que sera, pero cuantos directivos habeis visto que escriban en un foro?



Es que ahi esta el problema, no deberia exponerse publicamente, porque la ha cagado y mucho, solo hace falta que os paseis por neogaf para ver las incoherencias en lo que ha escrito.

@VjMorenoc, esta desmentido:

http://www.elinformejugon.com/sony-desm ... os-en-ps4/


Si yo fuera directivo de Microsft dejaria el tema de la potencia de lasdo y me centraria en el catalogo, que es muy superior y por darle bombo al precio, porque con la tonteria, al final con los packs One es mas barata que ps4 y ademas incluyendo un micro de calidad.
SergioSaw escribió:
PilaDePetaca escribió:Traducción de Penello:

I see my statements the other day caused more of a stir than I had intended. I saw threads locking down as fast as they pop up, so I apologize for the delayed response.

I was hoping my comments would lead the discussion to be more about the games (and the fact that games on both systems look great) as a sign of my point about performance, but unfortunately I saw more discussion of my credibility.

So I thought I would add more detail to what I said the other day, that perhaps people can debate those individual merits instead of making personal attacks. This should hopefully dismiss the notion I'm simply creating FUD or spin.

I do want to be super clear: I'm not disparaging Sony. I'm not trying to diminish them, or their launch or what they have said. But I do need to draw comparisons since I am trying to explain that the way people are calculating the differences between the two machines isn't completely accurate. I think I've been upfront I have nothing but respect for those guys, but I'm not a fan of the mis-information about our performance.

So, here are couple of points about some of the individual parts for people to consider:

• 18 CU's vs. 12 CU's =/= 50% more performance. Multi-core processors have inherent inefficiency with more CU's, so it's simply incorrect to say 50% more GPU.
• Adding to that, each of our CU's is running 6% faster. It's not simply a 6% clock speed increase overall.
• We have more memory bandwidth. 176gb/sec is peak on paper for GDDR5. Our peak on paper is 272gb/sec. (68gb/sec DDR3 + 204gb/sec on ESRAM). ESRAM can do read/write cycles simultaneously so I see this number mis-quoted.
• We have at least 10% more CPU. Not only a faster processor, but a better audio chip also offloading CPU cycles.
• We understand GPGPU and its importance very well. Microsoft invented Direct Compute, and have been using GPGPU in a shipping product since 2010 - it's called Kinect.
• Speaking of GPGPU - we have 3X the coherent bandwidth for GPGPU at 30gb/sec which significantly improves our ability for the CPU to efficiently read data generated by the GPU.

Hopefully with some of those more specific points people will understand where we have reduced bottlenecks in the system. I'm sure this will get debated endlessly but at least you can see I'm backing up my points.

I still I believe that we get little credit for the fact that, as a SW company, the people designing our system are some of the smartest graphics engineers around – they understand how to architect and balance a system for graphics performance. Each company has their strengths, and I feel that our strength is overlooked when evaluating both boxes.

Given this continued belief of a significant gap, we're working with our most senior graphics and silicon engineers to get into more depth on this topic. They will be more credible then I am, and can talk in detail about some of the benchmarking we've done and how we balanced our system.

Thanks again for letting my participate. Hope this gives people more background on my claims


He visto que mis declaraciones del otro dia produjeron mas confusión y preocupación de lo que yo creía. He visto hilos que se han cerrado automáticamente conforme iban siendo posteados, así que pido disculpas por haber tardado tanto en responder.

Esperaba que mis comentarios hiciesen que la gente hablase de los juegos (y el hecho de que los juegos en ambas plataformas se ven muy bien) como resultado de mi declaración sobre el rendimiento, pero desgraciadamente lo único que se puso en duda fué mi credibilidad.

Asi que voy a añadir detalles a lo que dije el otro dia que hagan que la gente pueda discutir sobre ellos en vez de hacer ataques personales. Esto debería de acabar con la idea de que sólo creo desinformación y confusión.

Quiero que quede claro: no estoy hechando mierda sobre sony. No trato de ningunearlos, ni su salida ni lo que han dicho. Pero necesito aportar un par de cosas a las comparaciones ya que estoy tratando de explicar que la forma en que la gente calcula el rendimiento relativo de una plataforma con respecto a la otra no es completamente exacto.

Aqui unos cuantos puntos que la gente debería de considerar tambien:

-18 CU vs 12 CU =/= 50% mas de rendimiento. Los procesadores con varios cores tienen una ineficiencia inherente cuanto mas CU's haya, asi que es simplemente incorrecto que sea un 50% mas de GPU.

-Además, cada uno de nuestros CU's es un 6% mas potente, y no hablo precisamente de un 6% mas de velocidad.

-Tenemos mas ancho de banda en la memoria. Teóricamente el GDDR5 son 176 GB/s, mientras que nosotros tenemos un pico teórico de 272 Gb/s (68 Gb/s de la DDR3 + 204 Gb/s de la ESRAM). La ESRAM puede hacer funcion de lectura/escritura en un mismo ciclo de reloj por lo que la cifra del ancho de banda siempre ha estado equivocada.

-Tenemos como mínimo un 10% mas de CPU. Aparte tenemos mejor sonido y el chip libera ciclos de reloj de la CPU.

-Entendemos que el GPGPU y su importancia es relevante. Microsoft inventó el "Direct Compute", y ha estado usando el GPGPU en uno de sus productos desde 2010, el Kinect.

-Hablando de GPGPU, tenemos 3 veces el ancho de banda coherente a 30Gb/s, que aumenta significativamente la eficiencia de lectura de datos que envia la GPU a la CPU.

Espero que con esos puntos específicos la gente comience a entender como hemos reducido todos los cuellos de botella que se podrían generar en el sistema. Estoy seguro que todo esto se debatira intesamente pero por lo menos podeis ver que puedo argumentar lo que estoy diciendo.

Todavía creo que no se entiende el esfuerzo que supone diseñar un hardware siendo MS como sabeis una compañía de softwre, pero tenemos a algunos de los mejores ingenieros expertos en gráficos trabajando en el diseño de nuestro sistema, los cuales entienden como crear una arquitectura y equilibrala para sacar el máximo rendimiento gráfico posible. Cada compañía tiene sus fuertes, y creo que nuestros puntos fuertes no se tienen en cuenta cuando se comparan ambas plataformas.


Dada la convicción que se tiene de que la diferencia es notable, estamos trabajando con nuestros ingenieros para profundizar mas todavía en este asunto. Ellos tendrán mas credibilidad que yo en este asunto, y pueden hablar en mas detalle acerca de las pruebas que hemos estado haciendo y como hemos equilibrado nuestro sistema.


Gracias de nuevo por dejarme participar. Espero que esto le de a la gente mas información acerca de mis declaraciones.

Ahí queda eso... Me parece correctísimo todo.



Nada...hasta ellos se ponen a hacer comparaciones como un tali más. ¿Como se atreve a decir que tiene mejor sonido? ¿Acaso Sony a filtrado algo con respecto a su sistema de sonido? ¿Las informaciones de las CU's? ¿De la manga también?

Parafraseando a este señor también se podría decir que sony es una compañia Japonesa con una dilatada experiencia desarrollando hardware por y para sus estudios de Software. Y los Japos nunca han dado precisamente cojos te tecnología punta, si es que queremos ponernos técnicos.

Encuentro las declaraciones muy desafortunadas, la verdad.
PilaDePetaca escribió:No se si os habeis fijado en una cosa:

• Adding to that, each of our CU's is running 6% faster. It's not simply a 6% clock speed increase overall.

-Además, cada uno de nuestros CU's es un 6% mas potente, y no hablo precisamente de un 6% mas de velocidad.


Si no es un 6% mas potente por velocidad, a que se refiere, ¿arquitectura,Volcanic Islands?.


Lo que está diciendo es que el aumento del 6% de cada CU no se traduce simplemente en un aumento general del 6%.

amoremorte escribió:Este hilo de es de ps4, dejad de hablar de ella. Ni para comparar. Estoy arto de leer cosas de ps4 aqui....


:-? :-?
Soto_ST escribió:
PilaDePetaca escribió:No se si os habeis fijado en una cosa:


-Además, cada uno de nuestros CU's es un 6% mas potente, y no hablo precisamente de un 6% mas de velocidad.


Si no es un 6% mas potente por velocidad, a que se refiere, ¿arquitectura,Volcanic Islands?.


Se refiere a eso, pero algunos hacen una traducción demasiado libre por ser benévolo.

Adding to that, each of our CU's is running 6% faster. It's not simply a 6% clock speed increase overall.

Cada una de nuestros CU´s es un 6% más rapido. No es simplemente un 6% de incremento de velocidad de reloj global.

Vamos, que se supone que no es lo mismo un 6% de más velocidad global que un 6% en cada CU, esto se debe traducir en un rendimiento mayor.
Newport escribió:
Er Quillo escribió:Una duda que tengo y no se si se abra dicho. ¿El lector de Blu-ray de la One sera solo para formato normal o se podrán ver pelis en 3D?

Un saludo


Se podrán ver pelis en 3D. Está confirmado por Major nelson.


Pues cojonudo, el Blu-ray que tengo lo meto en su caja, la cierro y ya tengo regalo de reyes para mis padres [qmparto]

Un saludo
PoderGorrino escribió:
Soto_ST escribió:
PilaDePetaca escribió:No se si os habeis fijado en una cosa:


-Además, cada uno de nuestros CU's es un 6% mas potente, y no hablo precisamente de un 6% mas de velocidad.


Si no es un 6% mas potente por velocidad, a que se refiere, ¿arquitectura,Volcanic Islands?.


Se refiere a eso, pero algunos hacen una traducción demasiado libre por ser benévolo.

Adding to that, each of our CU's is running 6% faster. It's not simply a 6% clock speed increase overall.

Cada una de nuestros CU´s es un 6% más rapido. No es simplemente un 6% de incremento de velocidad de reloj global.

Vamos, que se supone que no es lo mismo un 6% de más velocidad global que un 6% en cada CU, esto se debe traducir en un rendimiento mayor.


A mi es que esto me suena a chino, no se porque me da que esta tan liado como yo en este tema jajaja.
Call of duty 2 de xbox 360 y call of duty ghost 8 años despues.
Ryse de xbox one ----como seran los juegos dentro de 8 años?
Imagen

Creo que el salto grafico es mas que evidente de un juego de inicios de xbox 360, y un juego de inicio de xbox one.
Madre mia, lo que nos esperaaaaaa..... [babas] [babas]
Volviendo al tema de antes, Penello ha vuelto a hablar (a pesar de que dijo que no lo haría más en ese hilo de GAF):

Imagen

Resumen:

1.- Penello dice que ha jugado bastante durante la PAX tanto a la One como a PS4. Se refiere a que juegos como Ryse o Forza le parecen magníficos, así como Killzone y Drive Club. Sin embargo afirma que de sus impresiones de juego, no ve que esa diferencia del 50% exista.

2.- Alude al hecho de que One ya está en producción y que tras hablar con los desarrolladores third party, estos ya han dicho que los juegos cross gen ya funcionan tanto en la actual como en la nueva generación.

Incide en que han hecho grandes progresos en el rendimiento del sistema desde el E3, pasando por la Gamescom y el PAX, mejora que se ha visto por ejemplo en DR 3. Se refiere también a que han mejorado la estabilidad del software, que han personalizado y balanceado el sistema para reducir los cuellos de botella y mejorar el rendimiento, lo cual no puede apreciarse en las simples specs que han dado sobre One.

También repite que la info que dió antes sobre los detalles técnicos le fue suministrada directamente por los ingenieros con los que trabaja en contacto directo, y a cuya palabra, otorga más relevancia y credibilidad que la suya, por ser materia propia de la especialidad de éstos. Aclara que acudió a ellos para que diesen información adicional sobre specs para darla al público, por lo que cree que es mejor que deje de hablar del tema y eso lo deje para los ingenieros. También dice que más adelante se revelarán más detalles de las specs, sin estar seguro de en qué fecha será.

Por último dice que mejor deja de hablar del tema porque está viendo que está haciendo más mal que bien, y que deja la cuestión para los expertos de GAF.
Vamos, que no sabe de lo que habla, lo que yo decia jajajaja.

A esperar hasta finales de mes a ver si dicen algo interesante o no.
Nuhar escribió:Vamos, que no sabe de lo que habla, lo que yo decia jajajaja.

A esperar hasta finales de mes a ver si dicen algo interesante o no.



Que el no sea el experto no significa que las cosas que han dicho sean tonterías, ya ha comentado que ha transmitido lo que le han dicho los ingenieros.
Empiezo a sospechar que penello y misterxmedia son la misma persona [carcajad]
PoderGorrino escribió:
Nuhar escribió:Vamos, que no sabe de lo que habla, lo que yo decia jajajaja.

A esperar hasta finales de mes a ver si dicen algo interesante o no.



Que el no sea el experto no significa que las cosas que han dicho sean tonterías, ya ha comentado que ha transmitido lo que le han dicho los ingenieros.


Un ingeniero no le ha podido decir lo del ancho de banda de la memoria tal como lo ha soltado. Han sido los RRPP quienes le han asesorado, no los ingenieros, que son mucho más técnicos y honestos con los specs.
A mi me encanta esto:
-18 CU vs 12 CU
-Además, cada uno de nuestros CU's es un 6% mas potente

:)
143083 respuestas