NosferatuX escribió:Me quito el sombrero ante Magnarock. Ahora queremos una explicacion de la dGPU, perdon, de la arquitectura volcanic jiajia.
Es broma, seria especular demasiado, buena explicacion de la ventilacion, insisto.
Westwood escribió:Qué pasada de post magnarock! Así da gusto!
SCREAM25 escribió:Gran aporte Magnarock la verdad que últimamente casi ni posteo ya que los temas que se tocan no me interesan mucho pero te quedo genial la explicación y se ve que será un sistema muy eficiente
Magnarock escribió:SCREAM25 escribió:Gran aporte Magnarock la verdad que últimamente casi ni posteo ya que los temas que se tocan no me interesan mucho pero te quedo genial la explicación y se ve que será un sistema muy eficiente
Scream, adjuntalo en la primera pagina, si quieres, pa' que no se pierda. En plan enlace o como veas.
Esto es material inédito. Por cierto, parece que lo leyeron de aquí, y esta corriendo por los demás foros como la pólvora.
Si alguien lo quiere poner en un post paralelo, que lo haga. Lo hice para vosotros, ademas no dije anda que no se supiera, solo lo recopile, y lo ilustre.
Strife 117 escribió:NosferatuX escribió:Me quito el sombrero ante Magnarock. Ahora queremos una explicacion de la dGPU, perdon, de la arquitectura volcanic jiajia.
Es broma, seria especular demasiado, buena explicacion de la ventilacion, insisto.
Pues sin coñas, que parece ser que en el Architecture Panel de Xbox One dejaron caer que la arquitectura que lleva es de GPU's de Next-Gen.
Vídeo: http://www.youtube.com/watch?v=tLBVHZokt1Q&t=20m0s
Como dato decir que el actual GCN (el 1.1) se basa en el microcode que el nombra, por lo que se refiere a algo nuevo.
Strife 117 escribió:NosferatuX escribió:Me quito el sombrero ante Magnarock. Ahora queremos una explicacion de la dGPU, perdon, de la arquitectura volcanic jiajia.
Es broma, seria especular demasiado, buena explicacion de la ventilacion, insisto.
Pues sin coñas, que parece ser que en el Architecture Panel de Xbox One dejaron caer que la arquitectura que lleva es de GPU's de Next-Gen.
Vídeo: http://www.youtube.com/watch?v=tLBVHZokt1Q&t=20m0s
Como dato decir que el actual GCN (el 1.1) se basa en el microcode que el nombra, por lo que se refiere a algo nuevo.
elhopillo escribió:Pedazo de post el del compañero.
Yo ni sabía que la parte de abajo de la consola era todo rendijas de ventilación
Al final me voy a creer lo de los 10 años encendida
Magnarock escribió:elhopillo escribió:Pedazo de post el del compañero.
Yo ni sabía que la parte de abajo de la consola era todo rendijas de ventilación
Al final me voy a creer lo de los 10 años encendida
Aclaro, no sé si me explique mal, o me entendiste mal. Debajo de la consola tiene metal fino que actúa de disipador. No sé qué material debe de ser, parece aluminio pero no lo es, porque es caro para una consola de juegos. De todas formas no es nada nuevo, Xbox 360 ya la tiene, Xbox 360 S también, y seguramente lo tendrá Xbox 360 E. Por tanto, no es algo nuevo, pero como interviene de forma pasiva en el enfriamiento interno, pues lo he destacado.
Strife 117 escribió:Pues sin coñas, que parece ser que en el Architecture Panel de Xbox One dejaron caer que la arquitectura que lleva es de GPU's de Next-Gen.
Vídeo: http://www.youtube.com/watch?v=tLBVHZokt1Q&t=20m0s
Como dato decir que el actual GCN (el 1.1) se basa en el microcode que el nombra, por lo que se refiere a algo nuevo.
oscar_fv escribió:he leido lo de la ventilacion y los estados de alerta y tal, ahora la pregunta es: a que temperaturas manda la consola esos avisos? porque el problema de las xbox es que tenian los limites tan altos que... buff, y los que tengan una con rgh sabra lo que digo
NosferatuX escribió:oscar_fv escribió:he leido lo de la ventilacion y los estados de alerta y tal, ahora la pregunta es: a que temperaturas manda la consola esos avisos? porque el problema de las xbox es que tenian los limites tan altos que... buff, y los que tengan una con rgh sabra lo que digo
La consola avisaba de 3 formas: Ruido del ventilador, reinicio y mensaje de error
La temperatura se desconoce, pero Microsoft ya dijo que eran sistemas para prevenir el mal uso, no que te ocurriera mientras juegas con la consola en un sitio normal.
Viendo la ventilacion, y que se necesita de la entrada de aire de los laterales de la consola para el flujo de aire, se entiende que si la encajonas, la tapas o molestas alas rejillas de algun modo, estas haciendo un mal uso.
oscar_fv escribió:NosferatuX escribió:oscar_fv escribió:he leido lo de la ventilacion y los estados de alerta y tal, ahora la pregunta es: a que temperaturas manda la consola esos avisos? porque el problema de las xbox es que tenian los limites tan altos que... buff, y los que tengan una con rgh sabra lo que digo
La consola avisaba de 3 formas: Ruido del ventilador, reinicio y mensaje de error
La temperatura se desconoce, pero Microsoft ya dijo que eran sistemas para prevenir el mal uso, no que te ocurriera mientras juegas con la consola en un sitio normal.
Viendo la ventilacion, y que se necesita de la entrada de aire de los laterales de la consola para el flujo de aire, se entiende que si la encajonas, la tapas o molestas alas rejillas de algun modo, estas haciendo un mal uso.
el problema es que mientras juegas dandole un uso normal tambien pueden pasar estas cosas, a mi me petó 360 y estaba bien posicionada, por eso me gusta verla tan refrigerada a xbox one. En el caso de que falle... sat no? jeje
Strife 117 escribió:NosferatuX escribió:Me quito el sombrero ante Magnarock. Ahora queremos una explicacion de la dGPU, perdon, de la arquitectura volcanic jiajia.
Es broma, seria especular demasiado, buena explicacion de la ventilacion, insisto.
Pues sin coñas, que parece ser que en el Architecture Panel de Xbox One dejaron caer que la arquitectura que lleva es de GPU's de Next-Gen.
Vídeo: http://www.youtube.com/watch?v=tLBVHZokt1Q&t=20m0s
Como dato decir que el actual GCN (el 1.1) se basa en el microcode que el nombra, por lo que se refiere a algo nuevo.
Horizonte de sucesos escribió:
Por lo visto El tema de latencias va a ser muy importante:
Google traductor: Boyd sugiere a diferencia de la generación de la arquitectura moderna gpu último, esta generación actual (podría referirse específicamente a la arquitectura AMD GCN1.0) toma prestado el diseño del campo supercomputadora se basa más en el flujo de datos, y menos en fin de microcódigo. Flujo de datos dependientes. Esto significa no sólo el ancho de banda, pero la latencia es un problema más grande a diferencia de las generaciones anteriores de GPU, donde tener los datos en la caché correctas en el momento adecuado para alimentar la lógica de la GPU puede dar lugar a grandes mejoras en el rendimiento.
PilaDePetaca escribió:Horizonte de sucesos escribió:
Por lo visto El tema de latencias va a ser muy importante:
Google traductor: Boyd sugiere a diferencia de la generación de la arquitectura moderna gpu último, esta generación actual (podría referirse específicamente a la arquitectura AMD GCN1.0) toma prestado el diseño del campo supercomputadora se basa más en el flujo de datos, y menos en fin de microcódigo. Flujo de datos dependientes. Esto significa no sólo el ancho de banda, pero la latencia es un problema más grande a diferencia de las generaciones anteriores de GPU, donde tener los datos en la caché correctas en el momento adecuado para alimentar la lógica de la GPU puede dar lugar a grandes mejoras en el rendimiento.
La supercomputación se refiere al GPGPU, y la diferencia de arquitectura no es GCN 1.1 con respecto a GCN 2.0, es GCN 1.1 con respecto a GPGPU.
Strife 117 escribió:Te equivocas, no se refiere al GPGPU, ya que este se realiza a nivel de programación y no de hardware, en las GPU's actuales puede usarse.
Se refiere a la forma de procesar los datos de la GPU de next-gen, las cuales no están ni anunciadas.
Horizonte de sucesos escribió:Strife 117 escribió:NosferatuX escribió:Me quito el sombrero ante Magnarock. Ahora queremos una explicacion de la dGPU, perdon, de la arquitectura volcanic jiajia.
Es broma, seria especular demasiado, buena explicacion de la ventilacion, insisto.
Pues sin coñas, que parece ser que en el Architecture Panel de Xbox One dejaron caer que la arquitectura que lleva es de GPU's de Next-Gen.
Vídeo: http://www.youtube.com/watch?v=tLBVHZokt1Q&t=20m0s
Como dato decir que el actual GCN (el 1.1) se basa en el microcode que el nombra, por lo que se refiere a algo nuevo.
Por lo visto El tema de latencias va a ser muy importante:
Google traductor: Boyd sugiere a diferencia de la generación de la arquitectura moderna gpu último, esta generación actual (podría referirse específicamente a la arquitectura AMD GCN1.0) toma prestado el diseño del campo supercomputadora se basa más en el flujo de datos, y menos en fin de microcódigo. Flujo de datos dependientes. Esto significa no sólo el ancho de banda, pero la latencia es un problema más grande a diferencia de las generaciones anteriores de GPU, donde tener los datos en la caché correctas en el momento adecuado para alimentar la lógica de la GPU puede dar lugar a grandes mejoras en el rendimiento.
PilaDePetaca escribió:Strife 117 escribió:Te equivocas, no se refiere al GPGPU, ya que este se realiza a nivel de programación y no de hardware, en las GPU's actuales puede usarse.
Se refiere a la forma de procesar los datos de la GPU de next-gen, las cuales no están ni anunciadas.
Eeeee, no. El tipo no está hablando de las GPU next-gen de PC, está hablando de la GPU que usará XONE y del GPGPU (si no, las cosas que dice de los buffers y los cachés no hay por donde cogerlos)
Strife 117 escribió:PilaDePetaca escribió:Strife 117 escribió:Te equivocas, no se refiere al GPGPU, ya que este se realiza a nivel de programación y no de hardware, en las GPU's actuales puede usarse.
Se refiere a la forma de procesar los datos de la GPU de next-gen, las cuales no están ni anunciadas.
Eeeee, no. El tipo no está hablando de las GPU next-gen de PC, está hablando de la GPU que usará XONE y del GPGPU (si no, las cosas que dice de los buffers y los cachés no hay por donde cogerlos)
El sistema de micro código al que se refiere es la forma en la que trata los datos la arquitectura GCN actual, así que si se refiere a las nuevas GPU's.
Pero bueno tampoco quiero convencer a nadie de nada, no es mi trabajo.
Strife 117 escribió:Si, habla del tratamiento del microcódigo de como se hacía antes, y ahí hace un punto y seguido. Luego comienza a hablar de que ahora utilizan tecnologia de supercomputación (gpgpu) y como lo importante es como fluye la información (flow). Así que deja de desinformar y por lo menos mirate el video entero, que dice cosas muy interesantes y puede que te enteres realmente de lo que hablan, que parece que se oyen campanas y ya tiene que ser o 12Gb de RAM o dGPU o GCN2.0.
RCDepor escribió:No os parece que se esta repitiendo el inicio de la ultima generación a la inversa, esta vez es Microsoft quien llega de prepotente, tiene que rectificar aspectos(como sony y el famoso video del killzone), son ellos quien se gastan una pasta en una consola superoptimizada en hardware(como el famoso cell), y nuevas tecnologías(micro apuesta por la nube y nuevo kinect y sony de aquella con el bluray)... en cambio Sony viene mas callada como vino microsoft con la 360 y las ideas claras...
Al final va pasar lo mismo, las dos venderán igual y los juegos se verán mas o menos igual...
Lo que si es un poco estresante es la obsesión que tiene la gente por las especificaciones técnicas, PS2 y Wii son las son superconsolas de sobremesa para el gran publico y de especificaciones no es que fueran lo mas... al final importan los juegos o las novedades jugables...
NosferatuX escribió:RCDepor escribió:No os parece que se esta repitiendo el inicio de la ultima generación a la inversa, esta vez es Microsoft quien llega de prepotente, tiene que rectificar aspectos(como sony y el famoso video del killzone), son ellos quien se gastan una pasta en una consola superoptimizada en hardware(como el famoso cell), y nuevas tecnologías(micro apuesta por la nube y nuevo kinect y sony de aquella con el bluray)... en cambio Sony viene mas callada como vino microsoft con la 360 y las ideas claras...
Al final va pasar lo mismo, las dos venderán igual y los juegos se verán mas o menos igual...
Lo que si es un poco estresante es la obsesión que tiene la gente por las especificaciones técnicas, PS2 y Wii son las son superconsolas de sobremesa para el gran publico y de especificaciones no es que fueran lo mas... al final importan los juegos o las novedades jugables...
Si y no, Microsoft ha reaccionado a varios meses antes del lanzamiento, sin esperar a las ventas, haciendo caso a las criticas y a los FAQs.
triki1 escribió:...
Lo mas cojonudo del asunto es que encima os tragais que han cambiado porque se diga o deje de decir en cuatro foros de inet o articulos de alguna pagina web criticas sobre su consola. Estuvieron dando la brasa con que no iban a cambiar su estrategia hasta qeu salieron los primeros datos de reservas de consolas en tiendas y ahí fue el momento que cundio el panico, les importa la pasta, LA PASTA, no lo que digan cuatro tios en inet.
Rebunloided escribió:triki1 escribió:...
Lo mas cojonudo del asunto es que encima os tragais que han cambiado porque se diga o deje de decir en cuatro foros de inet o articulos de alguna pagina web criticas sobre su consola. Estuvieron dando la brasa con que no iban a cambiar su estrategia hasta qeu salieron los primeros datos de reservas de consolas en tiendas y ahí fue el momento que cundio el panico, les importa la pasta, LA PASTA, no lo que digan cuatro tios en inet.
Creo que no te das cuenta de que una cosa lleva a la otra, me explico:
- Saco consola
- No gusta
- Críticas
- No hay buena previsión de ventas
- Cambio políticas
Lo que te he marcado en negrita es obvio, es una empresa, pero el feedback negativo también repercute, tal y como te he puesto.
Es una cadena.
SergioSaw escribió:Joder, me quedo flipado con la cantidad de ingenieros informáticos que hay sueltos por este foro...
Strife 117 escribió:[...]
[...]
PilaDePetaca escribió:Strife 117 escribió:
El sistema de micro código al que se refiere es la forma en la que trata los datos la arquitectura GCN actual, así que si se refiere a las nuevas GPU's.
Pero bueno tampoco quiero convencer a nadie de nada, no es mi trabajo.
Si, habla del tratamiento del microcódigo de como se hacía antes, y ahí hace un punto y seguido. Luego comienza a hablar de que ahora utilizan tecnologia de supercomputación (gpgpu) y como lo importante es como fluye la información (flow). Así que deja de desinformar y por lo menos mirate el video entero, que dice cosas muy interesantes y puede que te enteres realmente de lo que hablan, que parece que se oyen campanas y ya tiene que ser o 12Gb de RAM o dGPU o GCN2.0.
triki1 escribió:Rebunloided escribió:triki1 escribió:...
Lo mas cojonudo del asunto es que encima os tragais que han cambiado porque se diga o deje de decir en cuatro foros de inet o articulos de alguna pagina web criticas sobre su consola. Estuvieron dando la brasa con que no iban a cambiar su estrategia hasta qeu salieron los primeros datos de reservas de consolas en tiendas y ahí fue el momento que cundio el panico, les importa la pasta, LA PASTA, no lo que digan cuatro tios en inet.
Creo que no te das cuenta de que una cosa lleva a la otra, me explico:
- Saco consola
- No gusta
- Críticas
- No hay buena previsión de ventas
- Cambio políticas
Lo que te he marcado en negrita es obvio, es una empresa, pero el feedback negativo también repercute, tal y como te he puesto.
Es una cadena.
EL feedback negativo lleva dandose por ejemplo con MS con su online de pago, con el Kinect, con la falta de desarrollo de juegos de sus estudios first, etc......y se lo pasa todo por el arco del triunfo.
Toda la politica de MS va encaminada a ser un sacacuartos, de siempre, es algo intriseco a esa empresa y hasta que no vio que las reservas de One eran catastroficas seguia con el discurso de " por mis huevos que ésto se hara asi y me da igual lo que diga la gente".
f5inet escribió:Strife 117 escribió:[...]
[...]
Traduzco:
Esta nueva generacion de GPU es... es un punto y aparte con respecto a la ultima generacion de GPU donde eramos muy sensibles a la optimizacion del microcodigo. Ya sabes, el orden exacto del codigo y los shaders hacen una enorme diferencia en lo rapido que se ejecutan. Esta vez, la arquitectura del chip esta basada en tecnologias de supercomputacion, y es mucho mas importante el flujo de datos. Tener los datos correctos en los caches correctos en los lugares correctos en el momento correcto es lo que hace toda la enorme diferencia para tomar ventaja de estos chips.
sobao_pasiego escribió:PilaDePetaca escribió:Strife 117 escribió:
El sistema de micro código al que se refiere es la forma en la que trata los datos la arquitectura GCN actual, así que si se refiere a las nuevas GPU's.
Pero bueno tampoco quiero convencer a nadie de nada, no es mi trabajo.
Si, habla del tratamiento del microcódigo de como se hacía antes, y ahí hace un punto y seguido. Luego comienza a hablar de que ahora utilizan tecnologia de supercomputación (gpgpu) y como lo importante es como fluye la información (flow). Así que deja de desinformar y por lo menos mirate el video entero, que dice cosas muy interesantes y puede que te enteres realmente de lo que hablan, que parece que se oyen campanas y ya tiene que ser o 12Gb de RAM o dGPU o GCN2.0.
En la cita que comentáis, se habla de una forma muy generalizada, pero las pocas conclusiones que se pueden sacar son que la filosofía en el diseño seguido del sistema que incorpora la gpu, no es el mismo que en los anteriores, donde para la agilidad y mayor rapidez de cálculo de dicho sistema lo que se hacía era optimizar el microcódigo (esos comandos o instrucciones a nivel de hardware usados para implementar el software escrito por el programador a instrucciones en código máquina dentro de la cpu), en vez de eso, han 'tirado' por, parece ser, por una filosofía parecida a una máquina 'Dataflow' (tipo de arquitectura software) no 'Data Flow' (representación gráfica del flujo de datos), es decir, no tiene la típica arquitectura de una máquina de Von Neumann (CPU del PC). Y así carece de lo que se llama un contador de programa (program counter) por lo que la instrucción que le toque se realizará cuando tenga a su disposición los argumentos de entrada no teniendo que esperar a ejecutarse, dicha instrucción, a que termine la anterior instrucción. Yo lo veo algo como, por ejemplo, en el cáculo de un renderizado en una imagen, imaginamos que se hacen los cáculos y se muestra la imagen renderizada, seguidamente cambia algún aspecto de esa imagen por pequeño que sea, con la anterior filosofía volvería a hacer todos los cálculos para mostrar la imagen actualizada, con esta filosofía sólo haría los cálculos en los puntos donde cambió la imagen.