Forzimbras escribió:La cosa es que algunas de esas elucubraciones (ojo, que no todas) están en lo cierto, y otras apuntan "caliente caliente" por donde van los tiros de lo que hay dentro de la carcasa. Independientemente de incredulidades y de cachondeos con DirectX, la nube y el máximo de tflps que puede dar la consola, que el tiempo pondrá en su sitio, donde corresponde. Y no queda mucho para ello (y no se me permite decir más).
"Un modo de mirar Xbox One es el hecho de que con DirectX11 tiene 8 núcleos, pero sólo uno de ellos hace el trabajo de DirectX. Con DirectX 12 los ocho núcleos lo harán"
David Ricardo escribió:pero cada día que pasa parece más claro que el hardware de One es lo que se ve
Forzimbras escribió:Espero que nadie venga a decir "es que PS4 va a mejorar también", ya que nadie dice lo contrario. PS4 como consola es un maquinón, pero las tecnologías usadas en una y otra consola difieren como de la noche al día, partiendo de que se basan o se apoyan en parámetros diferentes, y voy a intentar ilustrarlo:
PS4 en la potencia bruta, en unas specs "tochas" para lo que viene siendo una consola y un intento de semejanza a lo que monta un PC.
One está pensada, diseñada y construída desde 0 con vistas en la derivación/distribución de recursos físicos para múltiples tareas, y en el uso de la computación en la nube para dar ese "boost", así como DX12 en cuanto pueda usarse para facilitar la programación y obtener mejores resultados consumiendo menos recursos y en menor tiempo y las tiled resources como técnica de maximización de rendimiento al menor coste del mismo, de consumo y de memoria.
Para que se entienda:
Si PS4 hiciese un juego con X calidad usando el 100% de su hardware y One hiciese lo propio sin usar el resto de funciones que he mencionado antes, con toda seguridad el resultado sería superior en PS4.
La cosa es que cuando dijeron que usando esas funciones, se podía alcanzar el rendimiento de más de 2tflops en One tampoco estaban equivocados.
Por eso, volviendo al ejemplo anterior pero contando con las funciones extra de One, ese juego X que se ha hecho usando el 100% del potencial físico del hardware de PS4, podría hacerse usando el 75% de One más DX12+ compresión con tiled resources +nube para obtener idéntico resultado usando menos recursos "físicos" del hard de One, quedando un 25% libre para otras funciones, ya que como es sabido, One está pensada para la multifunción (insisto en que los porcentajes y cifras son a modo orientativo, de ejemplo)
La cuestión que seguro surge es: bueno, si se usa todo eso, entonces qué pasaría si se usase el 100% del hard físico de One + la computación en la nube y todo lo demás.
Pasaría esto: https://www.youtube.com/watch?v=XRU1AJsXN1g
Coñas aparte: se ha comentado que One tenía planificado salir inicialmente al mercado en 2014, pero tuvo que salir finalmente en 2013...bien, casi aciertan pero no del todo. Lo cierto es que hay funcionalidades que estando en la consola, no están operativas aún. Ni DirectX llegará "capado" a One, ni tendrá simple "compatibilidad", ya que ésta viene por hard y DX12 va a configurarse de tal manera que la integración de lo que se haga en Windows y en One, sea TOTAL. Y lo mismo va por la nube (que estar está ahí pero no se está usando ni un 5%) y los tiled resources (cuya integración con DX12 es al igual, plena).
Nada de lo que monta One está ahí por casualidad, sino que es fruto de años de meditación, esfuerzo en su planificación, estudio detallado y cuidado meticuloso en la distribución de su arquitectura interna.
antonio613 escribió:Xbox One ya ha demostrado el movimiento.
Ryse y Forza así lo atestiguan
Forzimbras escribió:antonio613 escribió:Xbox One ya ha demostrado el movimiento.
Ryse y Forza así lo atestiguan
Y eso que son títulos de lanzamiento usando lo que hay disponible en estos momentos. Si ya vimos el salto que hubo en 360 de los títulos iniciales en relación a los últimos, no deberíamos esperar menos ahora. El cambio lo vamos a notar a partir de 2015 cuando esté ya todo en funcionamiento y programado sobre los devkits definitivos. Y DX12 es cuestión aparte, porque empezará a andar a partir de 2015, por lo que no esperaría juegos que se beneficien de esta librería gráfica hasta un año más tarde. Eso sí, en cuanto lo haga, a más de uno los cojones le llegarán al suelo, especialmente en lo relativo a exclusivos de la casa, y eso que yo solo he podido ver pequeños fragmentos de demos técnicas. Cuando eso se aplique 100% a un juego completo, debe ser colosal.
El detalle de Ryse se queda en nada comparado a lo que vamos a ver en los próximos años.
papatuelo escribió:Ya se de donde sale el 33% más de ALUS.
Los datos que ha dado micro son correctos, tiene 768 stream processors.
Vuelvo con la imagen de la titan:
Si los contais como contamos los de XBOX ONE os encontrais con 256 stream processors por SMX.
Pero si mirais la descripción de la titan solo tiene 192 stream procesors, ¿entonces contando con los deditos no salen las cuentas? Pues sí que salen xq tiene 192 stream porcessors y y 64 double precision units que sumados son los 256 bultitos que hemos contado en el die.
Asi que si seguimos el mismo razonamiento y tenemos una tercera parte de precisión units tendríamos entontonces los 768 stream procesors + 256 double precision units = 1024 bultitos que contais en el die de la GPU de XBOX ONE. Edito: (Primer Error: se cuentan 1536 bultitos en el die de la GPU de ONE, ¿proporción single y double = 1 a 1???)
¿Esto podría tener algún sentido? Lo mismo es una gilipollez, pero bueno yo lo pongo y si me tienen que corregir no me importa en absoluto.
Forzimbras escribió:Nada, son simples demos técnicas de cómo puede verse un fragmento de un juego random programado usando los recursos de DX12 y con tiles on fire, no quiere decir que sea de ningún juego que vaya a salir ni nada Eso sí, hasta donde me consta, la computación en la nube no se estaba usando en ellas, y aún y con esas ya se veía de escándalo...
Si es que, no se la fecha exacta en que se "insinuó" desde Redmond, pero la One estaba e imagino que sigue estando prevista para una duración a largo plazo, no dependiendo tanto de lo que es el hard físico presente en nuestras salas sino de lo que sea capaz de mover un "servidor" externo. Algo así como una especie de streaming de recursos pero sin consumir bestialidades de ancho de banda (aplicando compresión de datos a saco). Diría que para desplegar el 100% del potencial de One, no es ya que el hard físico sea insuficiente, sino que tampoco sería necesario. Un rendimiento a lo bestia, es prácticamente posible desde ya remotamente, a distancia. En eso es en lo que se quiere enfocar MS: no tanto en disponer de máquinas con piezas de specs top-end, sino que con unas "bases" decentes, el grueso del trabajo se haga vía computación a distancia.
SangReal escribió:Forzimbras escribió:Nada, son simples demos técnicas de cómo puede verse un fragmento de un juego random programado usando los recursos de DX12 y con tiles on fire, no quiere decir que sea de ningún juego que vaya a salir ni nada Eso sí, hasta donde me consta, la computación en la nube no se estaba usando en ellas, y aún y con esas ya se veía de escándalo...
Si es que, no se la fecha exacta en que se "insinuó" desde Redmond, pero la One estaba e imagino que sigue estando prevista para una duración a largo plazo, no dependiendo tanto de lo que es el hard físico presente en nuestras salas sino de lo que sea capaz de mover un "servidor" externo. Algo así como una especie de streaming de recursos pero sin consumir bestialidades de ancho de banda (aplicando compresión de datos a saco). Diría que para desplegar el 100% del potencial de One, no es ya que el hard físico sea insuficiente, sino que tampoco sería necesario. Un rendimiento a lo bestia, es prácticamente posible desde ya remotamente, a distancia. En eso es en lo que se quiere enfocar MS: no tanto en disponer de máquinas con piezas de specs top-end, sino que con unas "bases" decentes, el grueso del trabajo se haga vía computación a distancia.
Eso se llama onlive y fue un fracaso
SangReal escribió:Forzimbras escribió:Nada, son simples demos técnicas de cómo puede verse un fragmento de un juego random programado usando los recursos de DX12 y con tiles on fire, no quiere decir que sea de ningún juego que vaya a salir ni nada Eso sí, hasta donde me consta, la computación en la nube no se estaba usando en ellas, y aún y con esas ya se veía de escándalo...
Si es que, no se la fecha exacta en que se "insinuó" desde Redmond, pero la One estaba e imagino que sigue estando prevista para una duración a largo plazo, no dependiendo tanto de lo que es el hard físico presente en nuestras salas sino de lo que sea capaz de mover un "servidor" externo. Algo así como una especie de streaming de recursos pero sin consumir bestialidades de ancho de banda (aplicando compresión de datos a saco). Diría que para desplegar el 100% del potencial de One, no es ya que el hard físico sea insuficiente, sino que tampoco sería necesario. Un rendimiento a lo bestia, es prácticamente posible desde ya remotamente, a distancia. En eso es en lo que se quiere enfocar MS: no tanto en disponer de máquinas con piezas de specs top-end, sino que con unas "bases" decentes, el grueso del trabajo se haga vía computación a distancia.
Eso se llama onlive y fue un fracaso
Forzimbras escribió:
Estamos hablando de que el juego fisico lo tienes tú y lo inicias y ejecutas en tu consola, pero determinadas funciones como el procesado gráfico, se hacen remotamente. O lo que es igual: puedes jugar a un juego en lo que vendría siendo ULTRA en PC, sin tener un PC de 1.500 euros. En Onlive tu solo tienes el receptor, pero ni el equipo que lo ejecuta ni el juego los tienes en tu poder.
PoderGorrino escribió:Forzimbras escribió:
Estamos hablando de que el juego fisico lo tienes tú y lo inicias y ejecutas en tu consola, pero determinadas funciones como el procesado gráfico, se hacen remotamente. O lo que es igual: puedes jugar a un juego en lo que vendría siendo ULTRA en PC, sin tener un PC de 1.500 euros. En Onlive tu solo tienes el receptor, pero ni el equipo que lo ejecuta ni el juego los tienes en tu poder.
Y yo me pregunto... ¿para qué pagar entonces 500 euros por un hardware como ONE? ¿No sería más lógico correr los juegos directamente en esos servidores con unos graficos imposibles de hacer con un hardware de 500 euros que no correr la mitad en la consola y la otra mitad en la nube?
PoderGorrino escribió:Forzimbras escribió:
Estamos hablando de que el juego fisico lo tienes tú y lo inicias y ejecutas en tu consola, pero determinadas funciones como el procesado gráfico, se hacen remotamente. O lo que es igual: puedes jugar a un juego en lo que vendría siendo ULTRA en PC, sin tener un PC de 1.500 euros. En Onlive tu solo tienes el receptor, pero ni el equipo que lo ejecuta ni el juego los tienes en tu poder.
Y yo me pregunto... ¿para qué pagar entonces 500 euros por un hardware como ONE? ¿No sería más lógico correr los juegos directamente en esos servidores con unos graficos imposibles de hacer con un hardware de 500 euros que no correr la mitad en la consola y la otra mitad en la nube?
argam escribió:PoderGorrino escribió:Forzimbras escribió:
Estamos hablando de que el juego fisico lo tienes tú y lo inicias y ejecutas en tu consola, pero determinadas funciones como el procesado gráfico, se hacen remotamente. O lo que es igual: puedes jugar a un juego en lo que vendría siendo ULTRA en PC, sin tener un PC de 1.500 euros. En Onlive tu solo tienes el receptor, pero ni el equipo que lo ejecuta ni el juego los tienes en tu poder.
Y yo me pregunto... ¿para qué pagar entonces 500 euros por un hardware como ONE? ¿No sería más lógico correr los juegos directamente en esos servidores con unos graficos imposibles de hacer con un hardware de 500 euros que no correr la mitad en la consola y la otra mitad en la nube?
No hombre, la nube esta bien, pero solo si hace el 50% del trabajo. Si hace el 100 entonces no acaba de funcionar.
Palabra de hinjiniero.
PoderGorrino escribió:Forzimbras escribió:
Estamos hablando de que el juego fisico lo tienes tú y lo inicias y ejecutas en tu consola, pero determinadas funciones como el procesado gráfico, se hacen remotamente. O lo que es igual: puedes jugar a un juego en lo que vendría siendo ULTRA en PC, sin tener un PC de 1.500 euros. En Onlive tu solo tienes el receptor, pero ni el equipo que lo ejecuta ni el juego los tienes en tu poder.
Y yo me pregunto... ¿para qué pagar entonces 500 euros por un hardware como ONE? ¿No sería más lógico correr los juegos directamente en esos servidores con unos graficos imposibles de hacer con un hardware de 500 euros que no correr la mitad en la consola y la otra mitad en la nube?
Forzimbras escribió:PoderGorrino escribió:Forzimbras escribió:
Estamos hablando de que el juego fisico lo tienes tú y lo inicias y ejecutas en tu consola, pero determinadas funciones como el procesado gráfico, se hacen remotamente. O lo que es igual: puedes jugar a un juego en lo que vendría siendo ULTRA en PC, sin tener un PC de 1.500 euros. En Onlive tu solo tienes el receptor, pero ni el equipo que lo ejecuta ni el juego los tienes en tu poder.
Y yo me pregunto... ¿para qué pagar entonces 500 euros por un hardware como ONE? ¿No sería más lógico correr los juegos directamente en esos servidores con unos graficos imposibles de hacer con un hardware de 500 euros que no correr la mitad en la consola y la otra mitad en la nube?
Si lo hicieses de esa manera tendrias justamente OnLive: streaming de juegos que se están ejecutando en un equipo en otra parte. Si falla el internet puntualmente, ni tienes posibilidad de jugar ni nada. En One no porque ejecutas a nivel local, y el procesado remoto es solo para mejorar el rendimiento que requeriría, por ejemplo, una carga gráfica potente o un número masivo de elementos en pantalla. Es una "ayuda" al procesado, sin más. Y la "potencia de lo que verías en pantalla sería el resultado de los dos dispositivos.
En definitiva: poder reproducir en tu One lo que sería impensable que se reprodujese por ella sola al nivel en que se muestra en pantalla.
Yo personalmente lo veo como una innovación, porque si al hecho de la posibilidad de mods le añades la posibilidad de obtener un rendimiento de PC high-end en un dispositivo de 500 euros, como dices, el resultado es el de una opción más que interesante para el bolsillo, y sin necesidad de optimizar ni configurar nada, ya que como he dicho, todo se hace remotamente.
SangReal escribió:La nube solo puede cambiar el clima o la IA, y lo sabes perfectamente. Ya salieron los programadores riendose de la nube, por eso hay tanto cachondeo.
Jamas podra hacer la nube grandes cosas con pings altos, tendrian que poner servidores en cada pais y aun asi aqui en españa le iria bien a una minoria.
No le deis mas vueltas, nuestra unica esperanza es dx12 y dios quiera que cumpla lo prometido para x1 no lastre esta generacion
Sobre el gaikai o como sea, no se ni como funciona, pero si es un onlive ya saben por donde se lo pueden meter.
Estuve repasando la conferencia del HETEROGENEOUS SYSTEM COHERENCE FOR INTEGRATED CPU-GPU SYSTEMS.
Algunos de vosotros habéis percibido de forma concisa que el "dataflow" y la "coherencia" para la optimización tanto de CPU como de GPU se vuelve un tema "IMPORTANTE". pdf: http://www.microarch.org/micro46/files/ ... slides.pdf
Probablemente si releéis mi post inicial de éste hilo con calma y algunos otros, ahora os suenen más algunos conceptos e ideas lanzadas en ellos puesto que lo que nos han contado en el summit de AMD no es nada más que su visión del hardware nativo dedicado a la API DX12.
Absolutamente todo está relacionado, y encontraréis sentido ahora a cosas explicadas en éste post como el hecho fehaciente de que MS hizo una configuración de memoria con tecnología existente para emular la memoria stackeada del futuro. Además los conceptos de diseño y fabricación son los mismos que usa la arquitectura de XBox One: el primer hardware full DX12 del mercado. Además también os daréis cuenta en éste post que yo ya señalé ésta información como acople de que las nuevas vga del roadmap de AMD usaban la misma tecnología que XBox One. Y si, en parte yo basé mis teorías a través de unos documentos "filtrados" que ahora están a la luz de todos. Así pues en la siguiente captura pueden obtenerse datos interesantes:
Lo primero que cabe destacar es que los núcleos GCN1.1 tienen una coherencia tier2 en el aspecto nativo DX12 y que sólo pueden beneficiarse de arquitectura completamente heterogénea los GCN2.0 porque "duplica" la eficiencia del CU.
¿Si no, de que te sirve tener 4 programadores, 2 render pipes, una memoria con 8 controladores unidos en un canal horizontal...etc etc etc? todo es dual, todo está duplicado para su eficiencia. Se puede afirmar que GCN 2.0 y DX12 es donde MS ha invertido su dinero, primero para ayudar a AMD a crecer delante del competidor nVIDIA y después hacer para el hardware que deseaba, una API dedicada como es el DX12. Y puesto que Sony no ha metido un duro en ello, se ha quedado simplemente en un GCN 1.1 con coherencia limitada y tier 2.
En el debate con Isma os habréis dado cuenta que la gente tiene la cabeza un poco cuadrada y tiene a hacer comparaciones que poco o nada tienen que ver. Es la actitud de un PCero empedernido. Es natural, todos hacemos asociaciones mentales dependiendo los conocimientos que tengamos, no hay que culpar a nadie de lo que sabe o no sabe. Para mi, hay cosas que rompen de sobremanera la fama de esos usuarios cuando explican cosas como que para hacer raytracing se necesita un gran poder de cálculo, y eso, simplemente no es cierto, a parte de un poder de cálculo "moderado" lo que realmente se necesita es un grandísimo ancho de banda y una coherencia completa en las "llamadas" y "peticiones" de información. (los que lean en la sombra con grandes conocimientos técnicos como algunos de vosotros que me habéis mandado msg privados felicitandome por el trabajo debéis perdonar que explique los conceptos de manera algo abstracta y sencilla, intento llegar al máximo de público)
Curiosamente y no en bano en la foto te das cuenta que la configuración de la DDR3 está dispuesta en 16 canales, por lo que dota al sistema de 700GB/S de ancho de banda sin los problemas inherentes a las latencias absurdas de la GDDR. Un sistema heteregéneo 100% no puede disponer sólo de GDDR5, tiene que usar en su defecto algún pool extra embebido o no logrará abastecer las peticiones que se demandan. Es por ello que MS elige la configuración DDR3+esRAM, como ya expliqué en el post inicial de éste hilo. No se trata de abaratar costes se trata de dar una solución de futuro con tecnología existente en el momento de fabricación.
Nuestro amigo extranjero @AndrewSalvat me ha mandado unos esquemas donde me comenta que hasta día de hoy "solo se ha usado" la DDR3 para los juegos y usado la esRAM como framebufer, una forma equivocada de hacer trabajar a ese POOL. Puesto que la memoria de la máquina consta de 8 controladores en total, 4 para esRAM y 4 para la DDR3 podemos extrapolar lo siguiente: 32 MB para e/SRAM - 4 memory controllers - 4 lineas, 8MB cada linea - cada linea se compone de 8 módulos (1 MB por modulo), entonces 8 módulos x 4 lineas = 32 módulos (@ 1MB modulo) Entonces quizá es legítimo pensar que esos 8 módulos son el equivalente a 8 nodos y por lo tanto podemos decir de manera acertada que hablamos sin ninguna duda y por confirmación de la propia MS con: 256bits por cada linea que compone un total de 1024 bits la velocidad extrapolada media de escritura y lectura simultanea de la E/SRAM es de 160gb/s por linea 160gb/s*4=640gb/s
Pero aquí viene lo bueno, si cogemos la teoría de @AndrewSalvat y extrapolando los datos que MS nos ha dado tenemos: 64bits por cada linea que compone un total de 256bits La velocidad de cada linea es de 68gb/s 68gb/s*4=272gb/s 272gb/s de DDR3+640gb/s=912gb/s.
Si cogemos la información que tenemos sobre tier 1, 2 y tier 3 nativo y como necesita el ancho de banda que actúe para hacer que la arquitectura heterogénea y el dataflow sea efectivo podemos entender que sólo DX12 puede hacer trabajar a la memoria de ésta manera: La primera configuración de memoria para las third partys fue la siguiente: DDR3 funcionando como 1 sólo canal, 64bits, total 68gbs+ framebufer de 1 sólo canal de la esRAM 160gb/s en un pool de 32mb de 256bits La configuración de febrero con los nuevos SDK es ·tier2" por lo que probablemente dependiendo de lo que requieras puedes activar 2+2 canales con lo cual hablaríamos de 128bits y 136gb/s para ddr3 y 512bits + 320gb/s para esRAM. DX12 activará 4+4 habilitando los 256bits de los cuatro controladores de la DDR3 y los 1024bits de la esRAM. GCN2.0.
Y tal y como dispone el PDF la tecnología XTX que desarrolla AMD como "su visión" de DX12 a nivel de hardware requiere un ancho de banda superior a 600gb/s para una coherencia GCN2.0. Con menos de 600gb/s NO PUEDES TENER UNA ARQUITECTURA DX12 NATIVA, SÓLO EMULARLA POR SOFTWARE CON LAS CORRESPONDIENTES LIMITACIONES.
Por eso en la foto esa pone abajo del todo QUE SÓLO UNA CONSOLA NEXTGEN USA LA MISMA IDEA. Es la teoría de "cuando un CU, no es sólo uno" Two best than one but only one in physical. DX12 APPROVED
David Ricardo escribió: Es todo palabrería para engatusar a quien no tenga idea de tecnología, pero para quien tenga algún conocimiento de tecnología, es leer el tocho ese y te quedas igual. No aclara nada.
papatuelo escribió:Q quieres q haga el hombre? Q te ponga informacion confidencial de la empresa? Y la nomina del mes q viene se la damos nosotros. No es el unico q se calla mas de lo q dice, pero hay quien tiene q guardar silencio o perder un trabajo.
David Ricardo escribió:papatuelo escribió:Q quieres q haga el hombre? Q te ponga informacion confidencial de la empresa? Y la nomina del mes q viene se la damos nosotros. No es el unico q se calla mas de lo q dice, pero hay quien tiene q guardar silencio o perder un trabajo.
Para callar algo tienes que saberlo. No creo que forzimbras sepa nada sobre la tecnología de One que no sepa cualquier persona con internet. Yo no he leído nada nuevo en su post. Todo palabrería: directx12, tiled resources, nube y tal y cual. Bueno, miento. Sí ha dicho algo nuevo, que One va a ser superior en los multis a PS4 a partir de 2016. Eso sí, no nos ha explicado cuáles son las características únicas de One que van a permitir que mediante software se duplique su rendimiento de una manera que la competencia no va a poder.
Es decir, que se supone que one tiene algo que hace que menos potencia sea más, pero toda la explicación que da es directx12, tiled resources, nube, 3000 millones de dólares... Palabras bonitas. Ahora explícame por qué One va a poder hacer eso y los demás no.
El directx12 es compatible con todas las gráficas AMD GCN, así que eso no es algo diferenciador en sí mismo. Los tiled resources los puedes usar en cualquier gráfica también, es una manera de economizar espacio en memoria simplemente.
La nube es una manera de llamar al procesamiento remoto. ¿Qué impide a cualquier otra compañía contratar procesamiento con amazon, por ejemplo, y usar también procesamiento remoto? Eso sin contar los problemas de un juego con procesamiento en la nube: si la conexión se va, el juego también, si alguien en tu casa pone el emule, el juego a tomar por saco, etc, etc...
Yo lo que esperaba oir es: "One tiene tal procesador que hace esta función que es fundamental para directx12 y no se puede hacer por software, y esa función es la hostia porque hace noseq que duplica el rendimiento. Las graficas futuras AMD la tendrán pero las gráficas tradicionales no."
Son 2 lineas y media. Si me dice eso, cambiando el noseq por una explicación razonable, yo me quedo encantado. Pero ponerme un megatocho en plan listado de buzz words sin decir nada nuevo, eso no aporta nada a nadie. Solo aporta confusión y decir que One va a ser la mejor, no lo puedo explicar, pero tenéis que creerme porque trabajo en Microsoft.
papatuelo escribió:Lo mas normal es q en el e3 se enseñen juegos normalitos xq para q se empiecen a ver cosas con directx 12 falta mucho tiempo. Pero ten muy claro q como se vea algo muy bruto el discurso sera: eso es humo, eso lo esta moviendo un PC, el hardware de xbox one es el q es y luego vendra el downgrade...
papatuelo escribió:Q quieres q haga el hombre? Q te ponga informacion confidencial de la empresa? Y la nomina del mes q viene se la damos nosotros. No es el unico q se calla mas de lo q dice, pero hay quien tiene q guardar silencio o perder un trabajo.
David Ricardo escribió:papatuelo escribió:Q quieres q haga el hombre? Q te ponga informacion confidencial de la empresa? Y la nomina del mes q viene se la damos nosotros. No es el unico q se calla mas de lo q dice, pero hay quien tiene q guardar silencio o perder un trabajo.
Para callar algo tienes que saberlo. No creo que forzimbras sepa nada sobre la tecnología de One que no sepa cualquier persona con internet. Yo no he leído nada nuevo en su post. Todo palabrería: directx12, tiled resources, nube y tal y cual. Bueno, miento. Sí ha dicho algo nuevo, que One va a ser superior en los multis a PS4 a partir de 2016. Eso sí, no nos ha explicado cuáles son las características únicas de One que van a permitir que mediante software se duplique su rendimiento de una manera que la competencia no va a poder.
Es decir, que se supone que one tiene algo que hace que menos potencia sea más, pero toda la explicación que da es directx12, tiled resources, nube, 3000 millones de dólares... Palabras bonitas. Ahora explícame por qué One va a poder hacer eso y los demás no.
El directx12 es compatible con todas las gráficas AMD GCN, así que eso no es algo diferenciador en sí mismo. Los tiled resources los puedes usar en cualquier gráfica también, es una manera de economizar espacio en memoria simplemente.
La nube es una manera de llamar al procesamiento remoto. ¿Qué impide a cualquier otra compañía contratar procesamiento con amazon, por ejemplo, y usar también procesamiento remoto? Eso sin contar los problemas de un juego con procesamiento en la nube: si la conexión se va, el juego también, si alguien en tu casa pone el emule, el juego a tomar por saco, etc, etc...
Yo lo que esperaba oir es: "One tiene tal procesador que hace esta función que es fundamental para directx12 y no se puede hacer por software, y esa función es la hostia porque hace noseq que duplica el rendimiento. Las graficas futuras AMD la tendrán pero las gráficas tradicionales no."
Son 2 lineas y media. Si me dice eso, cambiando el noseq por una explicación razonable, yo me quedo encantado. Pero ponerme un megatocho en plan listado de buzz words sin decir nada nuevo, eso no aporta nada a nadie. Solo aporta confusión y decir que One va a ser la mejor, no lo puedo explicar, pero tenéis que creerme porque trabajo en Microsoft.
chris76 escribió:David Ricardo lo que buscas que es también lo que yo buscaba(osea el hardware que solo tiene one para supuestamente duplicar el rendimiento con directx12)lo tienes en los post de 3djuegos con imágenes reales y paneles oficiales y explicado para gente de a pie
si a estas alturas aun no lo sabes es por que no quieres,otra cosa es que te lo quieras creer o no
por cierto mucho nombráis el e3 y el e3 es solo para juegos,alli no se va a decir nada sobre el hardware de one,como mucho esperemos ver juegos que supuestamente empiezen a usar la consola como debe