indigo_rs escribió:Absolute Terror escribió:VERBATIM DL+R escribió:He posteado poco por aqui, pero lo sigo cada dia. Se que veis que las specs de las consolas están desfasadas.. POR FAVOR CONTESTADME UNA PREGUNTA... ¿ Seriais capaces de pagar 800€ por una consola? si quereis specs altas, ya se que sabeis que mas specs...mas dinero..a veces creo que se nos va para lo que es una consola..a quien va dirigida y como se desarrolla para ella..
Los componentes no le cuestan lo mismo a las compañias que a nosotros, amen de que si quieren pueden vender la consola por debajo del precio de coste.
La 360 era puntera y costaba 300 euros.
Nadie sabe lo puntera que será Durango, quizá también incorpore novedades técnicas que la sitúen por delante. Hasta que este en la calle ejecutando juegos no se puede asegurar nada.
Bueno ojalá, el sentir general se cumpla..( deseo vamos..) alta specs, precio bajo... soñar es gratis no?
The Durango console is designed to offer game developers modern hardware that is more powerful than the Xbox 360. It uses a familiar x64 architecture and tools, and compared with Xbox 360 development time and effort spent on perfomance optimization. Hardware accelerators, including "move engines" for common tasks, will be added to the console. Move engines can perform common game tasks like compression and decompression while moving data around the system. The console also has dedicated hardware support form common audio processing tasks that reduce the amount of CPU time that must be devoted to audio. The GPU provides considerable computing power, and supports Direct3D 11.
Durango will implement different power states so that it can always be powered on, but will draw minimal electricity when not in use. The console will be ready instantly when users want to play, and will always maintain a network connection so that console software and games are always current. With this 'Always On, Always Connected' design, users will quickly and easily enjoy their connected entertainment experiences, with no waiting for the console to restart or install updates.
Every Durango console will be sold with a new high-fidelity Kinect Sensor, which will be requiered for the system to operate. The console will provide HD videos, and will use new depth sensor technology to provide better screen resolution and less noisy depth data. Active infrared illumination will provide high-quality monochrome images ever in low ambiente light conditions. A wider field of view allows play in smaller spaces and removes the need for a tilt motor.
System software will offer a full set of system API for Natural User Interface (NUI), and the API set will be corresponding API used by Xbox 360. Skeleton tracking, identity, and other NUI functions will be performed by the system and for that reason, titles no longer need to allocate title resources to NUI.
The Durango controller will make the best-in-class Xbox 360 controller ever better. It will have low-latency wireless connectivity to the console, and improve ergonomics. System interactions that use the controller will be simplified to make them easier for noncore gamers.
Every Durango console will have a hard drive, although its exact capacity has not been choosen. It will be large enough, however, to hold a large number of games. All games will be installed on the hard drive. Play from optical disc will be not supported.
Durango consoles will have Blu-ray Disc drive. Disc media will be used dor distributuion, but during gameplay, games will not use content from optical disc. An installation system is being designed that will allow gamers to begin playing while the game is being installed on the hard drive rather than waiting until insatallation is complete.
Audio from Durango will be all digital - 7.1 discrete PCM output through HDMIU and S/PDIF. Hardware accelerators will be included for decoding and decompressing common audio formats. There also will be a dedicated processor to perform common signal processing in hardware.
Mulzani escribió:Aquí la página de VGLeaks:
http://www.vgleaks.com/durango-xdk/
Y lo que dice el documento:The Durango console is designed to offer game developers modern hardware that is more powerful than the Xbox 360. It uses a familiar x64 architecture and tools, and compared with Xbox 360 development time and effort spent on perfomance optimization. Hardware accelerators, including "move engines" for common tasks, will be added to the console. Move engines can perform common game tasks like compression and decompression while moving data around the system. The console also has dedicated hardware support form common audio processing tasks that reduce the amount of CPU time that must be devoted to audio. The GPU provides considerable computing power, and supports Direct3D 11.
Durango will implement different power states so that it can always be powered on, but will draw minimal electricity when not in use. The console will be ready instantly when users want to play, and will always maintain a network connection so that console software and games are always current. With this 'Always On, Always Connected' design, users will quickly and easily enjoy their connected entertainment experiences, with no waiting for the console to restart or install updates.
Every Durango console will be sold with a new high-fidelity Kinect Sensor, which will be requiered for the system to operate. The console will provide HD videos, and will use new depth sensor technology to provide better screen resolution and less noisy depth data. Active infrared illumination will provide high-quality monochrome images ever in low ambiente light conditions. A wider field of view allows play in smaller spaces and removes the need for a tilt motor.
System software will offer a full set of system API for Natural User Interface (NUI), and the API set will be corresponding API used by Xbox 360. Skeleton tracking, identity, and other NUI functions will be performed by the system and for that reason, titles no longer need to allocate title resources to NUI.
The Durango controller will make the best-in-class Xbox 360 controller ever better. It will have low-latency wireless connectivity to the console, and improve ergonomics. System interactions that use the controller will be simplified to make them easier for noncore gamers.
Every Durango console will have a hard drive, although its exact capacity has not been choosen. It will be large enough, however, to hold a large number of games. All games will be installed on the hard drive. Play from optical disc will be not supported.
Durango consoles will have Blu-ray Disc drive. Disc media will be used dor distributuion, but during gameplay, games will not use content from optical disc. An installation system is being designed that will allow gamers to begin playing while the game is being installed on the hard drive rather than waiting until insatallation is complete.
Audio from Durango will be all digital - 7.1 discrete PCM output through HDMIU and S/PDIF. Hardware accelerators will be included for decoding and decompressing common audio formats. There also will be a dedicated processor to perform common signal processing in hardware.
Lo de "Always on, always connected" no indica que sea requisito esencial de la videoconsola y para poder jugar, sino que con dicho sistema cuando "apaguemos" la videoconsola se mantendrá en un estado en el que seguirá habrando conexión y, si alguno de los juegos, aplicaciones o el propio sistema necesita actualizarse, lo hará mientras está en el modo "apagado" y, además, dicho modo permitirá un arranque rápido de la videoconsola, sin esperas.
indigo_rs escribió:Uno de los problemas de este hilo es que le tenemos tantas ganas a la nueva Xbox que ya damos por hechos los rumores. Por suerte parece que está mas cerca de lo esperado.
elKUN escribió:Puede que durango tambien salga puntera y a 300 euros. Sin wiifi, sin disco duro, sin salida hdmi, con mando con cable, sin cable vga, te tenias que comprar una memoria para poder grabar partidas a 35 pavos. ¿Sigo?
Saludos
ViSi escribió:elKUN escribió:Puede que durango tambien salga puntera y a 300 euros. Sin wiifi, sin disco duro, sin salida hdmi, con mando con cable, sin cable vga, te tenias que comprar una memoria para poder grabar partidas a 35 pavos. ¿Sigo?
Saludos
Te has dejado que la sacaron deprisa y era poco fiable, o sea que tampoco invertirían mucho testearlas.
elKUN escribió:Puede que durango tambien salga puntera y a 300 euros. Sin wiifi, sin disco duro, sin salida hdmi, con mando con cable, sin cable vga, te tenias que comprar una memoria para poder grabar partidas a 35 pavos. ¿Sigo?
Saludos
Absolute Terror escribió:elKUN escribió:Puede que durango tambien salga puntera y a 300 euros. Sin wiifi, sin disco duro, sin salida hdmi, con mando con cable, sin cable vga, te tenias que comprar una memoria para poder grabar partidas a 35 pavos. ¿Sigo?
Saludos
Esta vez con todo lo que se van a ahorrar en la CPU y la GPU igual meten todo eso de serie.
elKUN escribió:Absolute Terror escribió:elKUN escribió:Puede que durango tambien salga puntera y a 300 euros. Sin wiifi, sin disco duro, sin salida hdmi, con mando con cable, sin cable vga, te tenias que comprar una memoria para poder grabar partidas a 35 pavos. ¿Sigo?
Saludos
Esta vez con todo lo que se van a ahorrar en la CPU y la GPU igual meten todo eso de serie.
Pues sumaselo a tu xbox de 300 pavos. Y no olvides la Gddr5 es muy muy cara. Ni existe en el mercado. Eso lo sumas donde quieras. Pero lo sumas.
Saludos
pero a ver...tú sabes el rendimiento que van a tener las consolas? acaso crees que en sony son tontos y le meten esa ram para que la cpu y la gpu sean un cagarro? no ves que xbox360 era lo mismo en proporción a lo que ahora van a ser las nuevas?Absolute Terror escribió:...
daymaster escribió:Hola a todos, antes . mi pareja vio el video del killzone de la ps4 y aunque no es entendido ni le gustan las consolas su comentario fue..... Esta way pero de verdad nosvamos a gastar dinero en algo que ttampoco es quese vea mmucha diferencia, le quito un poco de asunto porque no le gustan las consolas, cuando le digo joder que gráficos parece real, para el Real es un actor de crepúsculo jajaj,yo le respondí que bueno, en un juego en desarrollo aun y ten en cuenta que los primeros juegos nunca definen mucha ddiferenci , pero me recordó algo que me dijo cuando jugaba al dead space 3 (pues se ve como el del viejo ese que compraste hace años (meta gear 4) y me dio que opensa, es verdad que hay una eevoluciónddurante los dos o tres primeros años, después la evoluciónse estanca , la hay si, pero muy moderada, porque es verdad, metalgear ya rozaba a muy alto nivel y si te ppones a mirar....
Que pensáis?
elKUN escribió:Correcto. Y era ahi donde estaba el sobrcoste y no en tecnologia de la nasa como leias en hobbyconsolas. Estamos ante la misma situacion. Tecnologias detras del PC con algun componente puntero.
Saludos
elKUN escribió:Si ati no te vale el power point de nvidia. Nose porque estas que no cagas con el power point de Epic y los flops que ahi aparecen.
Nvidia ya ha mostrado que xbox360 no era mejor que un PC de la epoca. Final
Saludos
Absolute Terror escribió:elKUN escribió:Si ati no te vale el power point de nvidia. Nose porque estas que no cagas con el power point de Epic y los flops que ahi aparecen.
Nvidia ya ha mostrado que xbox360 no era mejor que un PC de la epoca. Final
Saludos
¿Nvidia no son esos que acaban de decir que la CPU de PS4 es de gama baja y la GPU de gama media?
Pregunto, es que lo lei en la Hobby Consolas pero no lo recuerdo muy bien
Si quieres me busco los datos elKUN para que veas de una vez por todas que la Xbox 360 en su dia era bastante mejor de lo que van a ser las nuevas consolas en la actualidad. Si te quieres creer que miento porque soy un malvado pecero que le tiene mania a las consolas o porque soy un clon de usuario baneado, ya es cosa tuya. Solo apuntillare que nadie mas que yo deseaba que las nuevas consolas fueran mas potentes, y solo tienes que seguir buceando en mis mensajes antiguos en este hilo para corroborarlo.
Ah, las puyas personales ahorratelas por aqui, si quieres mandame un privado.
Riwer escribió:Pues eso espero, que tengo intencion de usar las nuevas consolas en un monitor 1080p. (Monitor = a no sistema de reescalado). Asi que si viene algo en 720p lo vere fatal
AguilaRoja2012 escribió:Espero que lo de la conexión obligatoria sea un fake,porque de no serlo fuera de ee.uu es un sistema sin futuro.Respecto a lo de kinect espero que sea opcional sobretodo porque ese sobrecoste en kinect se lo habrían ahorrado en hard.
Yo hasta que no lo vea no me lo creo,no puedo creerme esto tras la xbox360
elKUN escribió:Absolute Terror escribió:elKUN escribió:Si ati no te vale el power point de nvidia. Nose porque estas que no cagas con el power point de Epic y los flops que ahi aparecen.
Nvidia ya ha mostrado que xbox360 no era mejor que un PC de la epoca. Final
Saludos
¿Nvidia no son esos que acaban de decir que la CPU de PS4 es de gama baja y la GPU de gama media?
Pregunto, es que lo lei en la Hobby Consolas pero no lo recuerdo muy bien
Si quieres me busco los datos elKUN para que veas de una vez por todas que la Xbox 360 en su dia era bastante mejor de lo que van a ser las nuevas consolas en la actualidad. Si te quieres creer que miento porque soy un malvado pecero que le tiene mania a las consolas o porque soy un clon de usuario baneado, ya es cosa tuya. Solo apuntillare que nadie mas que yo deseaba que las nuevas consolas fueran mas potentes, y solo tienes que seguir buceando en mis mensajes antiguos en este hilo para corroborarlo.
Ah, las puyas personales ahorratelas por aqui, si quieres mandame un privado.
Si son los mismo. Recuerda que mi comentario fue que en su dia callaron como putas. Que antes era igual pero ellos estaban detras y se callaron.
Si eres user baneado. Me ha llegado otro mp confirmandomelo. Y puedes traer lo que quieras. No soy quien para decirte como te tienes que divertir. Alomejor sabes mas que nvidia y su grafica.
Saludos
Absolute Terror escribió:Mira elKUN, te propongo un divertido juego; tu me ennumeras las single GPU's mas potentes del año 2005 poniendome su capacidad de calculo en coma flotante, comparandolas con Xenos, y yo te ennumero las single GPU's mas potentes del año en curso y las comparamos con la GPU de la PS4.
NeCLaRT escribió:Absolute Terror escribió:Mira elKUN, te propongo un divertido juego; tu me ennumeras las single GPU's mas potentes del año 2005 poniendome su capacidad de calculo en coma flotante, comparandolas con Xenos, y yo te ennumero las single GPU's mas potentes del año en curso y las comparamos con la GPU de la PS4.
Pero digo yo, a ver si asi, no puede ser que la diferencia sea el salto evolutivo extremo de los ultimos años en las capacidades de calculo de las gpus via aumentos escalares de todo a lo bestia? Es decir, que no tenga nada que ver con los saltos generacionales de consolas bajo unos estandares de siempre que si se mantienen proporcionales.
NeCLaRT escribió:Nadie pide que lleven titan para acabas de decir que para evaluarla como consola respecto a 360 hay que referenciarla con titan, literalmente. Es que es incorrecto y no hay mas. Habra que referenciarla con el maximo que podria haber montado para una consola con las circunstancias actuales, y eso es como mucho mucho mucho entre 2 y 2.5, no los otros 4.5.
Luego me gustaria que me explicaras de donde salen tus cuentas de que hay mayor salto en rendimiento global entre xbox y 360 que entre 360 y pongamos ps4 que es la que tenemos datos, porque segun lo veo yo va a ser todo lo contrario. Y es logico ya que se van muchos mas años.
Una historia de endivias
Posted on 16 marzo, 2013 by Urian
TPor ahí anda el marketing de Nvidia echando pestes sobre PlayStation 4 y llamando rácana a Sony por no querer pagar lo que ellos exigían, solo hay que ver el mal que ha hecho Nvidia a Sony en los últimos años para entender el motivo por el cual no hay un chip de Nvidia en PS4, cosas que son conocidas por todo el mundo como ahora:
Tener que pagar unos precios por uso de la tecnología mucho más altos de los que paga Microsoft a AMD/ATI y sin la posibilidad de decidir sobre la fabricación del chip.
Ocultación de información crucial, esto es lo que llevo a Sony a desarrollar el libGCM por si misma y poder aprovechar el potencial de la consola, Nvidia negaba información y Sony tenía que tirar de un OpenGL ES 1.x+CG en la primera generación de juegos que daba un rendimiento pésimo. Si no fuese por el trabajo de Sony cosas a nivel técnico como God of War 3, Heavy Rain, la saga Uncharted y los Killzone jamás hubieran aparecido dado el nivel de información otorgado por Nvidia.
No quisieron colaborar en la participación de un SoC para PS3, añadiendo unos costes adicionales a Sony para su consola actual que resultan en una desventaja de precio e impidiendo la compatibilidad hacía atrás en PS4 debido a los altos costes.
Nvidia es una compañía que se esta quedando sola por el trato que tiene con sus socios, por sobre-prometer en cuanto a rendimiento y luego dar menos de lo que pide, esta forma de tratar a terceros es la que ha acabado por destruir la confianza en Nvidia en el mercado de los dispositivos embebidos y entre ellos se incluyen dispositivos Post-PC y Consolas de videojuegos. En un artículo de semiaccurate, Charlie Demarjian explica perfectamente bien lo que ocurre con esta compañía y merece la pena leerlo:
Detrás del telón, se estaba interpretando una historia remarcablemente diferente de la que se contaba de cara al público, y era una sin un final feliz. El patrón empezó con Tegra, sin ningún número añadido, el chip era la primera incursión de Nvidia en el espacio de los teléfonos y las tablets. Durante el Hot Chips 20 de hace unos años, Nvidia puso enfasis en sus charlas sobre las capacidades de video HD. Los 1080P eran promocionados como la Killer App, ningún otro chip del mercado podía reproducir video a esa resolución. Mostraron películas y juegos, pero la calidad de imagen mostrada no era muy buena. Se acuso al proyector, un problema que plaga las demostraciones públicas en todo el mundo.
Comprobando las especificaciones en la presentación, específicamente en la página 5, parecía que el dispositivo no soportaba actualmente los prometidos 1080P en una pantalla interna. Cuando le preguntamos al presentador que quería decir video 1080^en una pantalla externa, dijeron que el Tegra no podría soportar tampoco esa resolución en una salida externa. Siendo adicialmente presionado por SemiAccurate acerca de como el chip podría reclamar video 1080P si no podía mostrarlo en una pantalla LCD interna o externa, admitio que en Tegra, los 1080P eran, “Solo un formato de descodificación interno”. Imaginar si vosotros sois un ensamblador que ha apostado por dispositivos Tegra basados en la promesa del video en 1080P y os contaran que era “un formato de descodificación interno”. Algunos aún se preguntan como esta pieza tuvo tan poca aceptación.
Tegra 2 es otra pieza del patrón. ¿Las docenas de diseños ganados prometidos en el CES? ¡Puf!. ¿Por qué? La fuentes por aquel tiempo decían que el silicio que entregaban estaba un 25% por encima del limite energético, un imperdonable “declaración falsa” que echará fuera un Soc por 10mW de más. Para hacer las cosas peor, ese 25% era a una velocidad de reloj mucho más baja que la prometida originalmente, las velocidades prometidas no podrían funcionar en el consumo de un dispositivo móvil. La cereza en el pastel fue que dos de las características rompedoras que otros dispositivos no tenían,el USB por interrupciones y otra característica que no vamos revelar, no funcionaban. Por suerte, al menos de acuerdo a lo que le explicaron a Anand en el enlace de arriba, todo era por la elección del SO, no por haber superado en un 25% el consumo, tener menor velocidad de reloj y que ambas características rompedoras simplemente no funcionaban en un dispositivo que no llego a su fecha de envío por un largo margen. Se hablo públicamente de la elecciones del SO debido a que la gente no lo cuestionaría.
Saltando a la siguiente generación, Tegra 3, donde por fin Nvidia mostro lo que realmente podría hacer. Tuvo más diseños ganados que el Tegra 2, al menos de acuerdo con el Director Ejecutivo Jen-Hsun Huang en un artículo del Dow Jones, así que dominaría el mercado, ¿cierto? SemiAccurate dijo que estaba mal diseñado y que de nuevo no llegaba a los objetivos de rendimiento por un enorme márgen. Su Director Ejecutivo le estaba contando a la prensa financiera y la técnica lo maravilloso que este era, Mike Rayfield alegaba 30 diseños ganados, el doble que los 15 que tuvo el Tegra 2. Tegra 3 era un ganador, y tenía muchos más diseños ganados que no se podrían nombrar, y muchas características que harían avergonzar a la competencia, solo tenías que esperar y ver. Los ensambladores esperaron nosotros esperamos.
El teléfono estrella del Tegra 3 realizado por HTC tuvo un SoC de Qualcomm cuando fue lanzado en los EEUU, el resto de los diseños ganados nunca llegaron a las portadas de forma significativa, muriendo en la oscuridad sin explicación. ¿Habéis visto un dispositivo Tegra 3 en el medio silvestre? son más raros que los Zune en la MacWorld. Mientras que algunos probablemente llegaron al mercado, eran tan pocos y distantes entre si que se te puede perdonar por no haberte dado cuenta.
Cualquiera que estuviese testeando los números de consumo de los actuales dispositivos pasaba un mal rato intentando llegar lo más cercanamente posible a los números de consumo alegados por Nvidia, esto era una pista. Fue descartado por la compañía que tenía como si se hubiera utilizado un dispositivo o método de test espécificos, con cada medidor probado parecía que hubiese una anomalía.
Los números de consumo en el chip final, mientras que eran mejores que los del Tegra 2, se quedaba cortos en la tabla de especificaciones de una comprobación independiente.
Para el Tegra 3, dos diseños ganados fueron la gracia salvadora, el Microsoft Surface RT y el Google Nexus 7. Las ventas del Surface RT fueron tan malas que Microsoft ni dio el número a los analistas, y en el reemplazo para el Nexus 7 se le dio el diseño a Qualcomm y no a Nvidia. ¿Sombras de HTC? Dado como los representantes de Nvidia estaban echando pestes de Microsoft a los analistas financieros durante buena parte de 2012, es dificil ver como es que estaban públicamente felices sobre el Surface.
Puedes ver como se desarrolla un patrón, Nvidia promete X para la nueva CPU. A los ensambladores les gusta lo que oyen dado que las especificaciones prometidas son genuinamente buenas y firman los pedidos. A continuación los clientes empiezan los diseños con esos SoC que les van a enviar antes que les lleguen los chips, algo que parece extraño pero que es necesario en los ciclos de diseño modernos. El trabajo va bien, Nvidia envia los primeros chips al ensamblador. Las especificaciones de consumo, velocidad y carácteristicas son una sombra de lo que los OEM firmaron en los contratos. Se llevan a cabo reuniones y se les asegura que lo que se les esta dando es un chip tempranero, y se les prometen a todos mejoras. ¿Los ensambladores refunfuñan en voz alta pero siguen adelante debido a que Nvidia no les mentiría a todo trapo?
Mientras SemiAccurate no ha atendido a ninguna de esas reuniones o no ha visto el papeleo directo resultante de las mismas, hemos hablado con la gente directamente relacionada, y todos ellos describen los eventos de manera similar. También dicen que una vez que reciben el chip final, este mejoro un poco, pero no se parecía a lo inicialmente prometido. Por el tiempo de las primeras reuniones llevadas a cabo por le presa de pánico, los diseños estaban tan avanzados que era demasiado tarde para cambiar las marchas. Si un ensamblador no tenía un plan B para el dispositivo que estaban desarrollando en paralelo usando otro SoC, una empresa costosa en tiempo y dinero, no había otra opción que seguir adelante. Descartar Tegra en ese punto llevaría a meses de retraso para el producto, o el hecho de no tener nada para llevar al mercado esa temporada. En el momento en que el chip final es estregado, el dispositivo esta casi acabado y solo quedan las optimizaciones. Sí el Plan B no era estaba cocinado al mismo nivel, simplemente tenían que conformarse con Tegra.
¿De que me suena esta historia? Ah si, de como cuando Nvidia hizo esa presentación en el E3 2005 y luego presentaron esa MIERDA de chip que es el RSX, pero luego ya se encargaron que el marketing acusaran al CBEA y al BluRay, dos tecnologías que funcionan de puta madre en PS3 y muy al contrario de un RSX que no cumplió con lo prometido en ningún momento. ¿Ouya? Una empresa fantasma creada por Nvidia en las sombras con tal de vender a los incautos los chips sobrantes de la perdida de contratos con los ensambladores pero que habían sido fabricados anteriormente en TSMC. Bueno, una vez llegada la presentación os tengo que contar una cosa.
El Señor P me conto que Nvidia de 2006 a 2009 estuvo desarrollando un procesador x86 por su cuenta y lo completo, su objetivo era tener una gama similar a la que tiene AMD con la gama Fusión/APU, el chip completo lo terminaron a finales de 2009 y decidieron presentarlo a todos los fabricantes, Nintendo lo descarto de entrada alegando el respeto a los contratos ya establecidos y por costes, Sony lo descarto por costes y Microsoft fue la única que les dio una oportunidad como plan alternativo. El problema es que Nvidia no tenía licencia x86 ni x86-64 y sabían que Nvidia tenía una alta cuota de mercado en lo que a chips gráficos y un marketing muy poderoso, así que por el uso de la tecnología empezaron a exigir un pago muy alto por chip fabricado. Microsoft por aquel entonces tenía tres posibilidades sobre la mesa que eran AMD+IBM, AMD a secas o Nvidia, se descarto la primera y la cosa quedo entre AMD y Nvidia pero AMD seguía jugando con la ventaja del precio por lo que Nvidia sugirió el uso de la ISA ARM para la consola, es por eso que en el mapa de ruta Yukon aparece x86/ARM.
Pero había un problema, las CPU ARM no soportan operaciones atómicas y era un requisito según Microsoft así que les dieron tiempo a Nvidia de unos dos años para hacer un chip ARM que pudiese competir en rendimiento con el núcleo de AMD y optar a ganar el diseño. Fue en ese punto cuando se pusieron a trabajar en el Project Denver.
Pero movamos las cosas a principios de 2012, Microsoft ha terminado el Surface RT y se encuentra con los mismos problemas que el resto de ensambladores pero no tienen un plan B inicial pero las cosas se tuercen de mala manera entre las dos compañías, después de unos dos años del acuerdo Denver no es más que humo y no se ha materializado, a nivel extra-oficial Nvidia no aparece en las quinielas de la siguiente consola, no hay acuerdo firmado y depende de la existencia de un componente de que Nvidia pueda optar a conseguir un contrato, simplemente sin Denver no hay contrato y así ocurre. La pataleta de Nvidia a todo esto es echar mierda sobre Microsoft por todas partes y entregarles una cantidad ínfima de chips para el Surface RT, provocando el fracaso total de la plataforma de Microsoft y la perdida de Nvidia de poder entrar en el contrato de Xbox. En todo caso no es solo por el tema de la CPU, pese a que Nvidia saca pecho con Kepler/GTX 6×0 hasta el punto de pagar bonitas demos técnicas para engañar a los incautos, la GPU no soporta el set completo DX11.1, lo cual recuerda a lo que ocurrió con la arquitectura G7x/NV4x que es la que utiliza el RSX de PS3, es el clásico truco de Nvidia, prometer cosas que no son verdad y ya no hablemos del tema del Virtual Texturing.
¿Con este trasfondo a la gente le extraña que Nvidia sea una marginada? Su comportamiento es infantil y ridículo, hemos llegado a ver como Nvidia ha llegado a echar publicamente pestes sobre todo el mundo excepto ellos, que si el SO, que si Microsoft… han acusado publicamente a todo el mundo, eso si, son expertos en el marketing barato engaña-juascors. Un ejemplo fue lo que hicieron hace años con la versión preliminar de DX10, la cual existía hace unos diez años y era como la DX11 actual, pues bien, AMD llego a crear un chip bajo esa especificación y Nvidia no tenia NADA y empezó a hacer presiones para ir retrasando la fecha del DX10 más y más años y consiguiendo que cosas como la teselación no fuesen mandatorias dado que no habían desarrollado la tecnología. Nvidia a través de su marketing ha conseguido grandes cuotas de mercado que le han servido para ir haciendo presión para ir retrasando la implementación de tecnologías que otros tenían ya listas pero que no se podían usar por no haber sido desplegadas en las APIs.
Las malas lenguas dicen que el chip que estaba realizado para la siguiente generación y que no completaron en su día ha evolucionado hacía un chip para el mercado de la computación de alto rendimiento con el nombre en clave Boulder, en realidad Boulder es Echelon, un chip del que Nvidia estaba hablando en sus conferencias a mediados de 2011.
En CHW dijeron lo siguiente sobre este chip:
Echelon será el chip de mayor potencia creado por Nvidia (hasta el momento en que sea lanzado), este chip estará conformado por un número aún no revelado de núcleos ARM (suponemos que de 8 a más) junto a un GPU de nueva arquitectura, el cual cuenta con un diseño con un mayor grado de evolución en comparación al usado en los actuales Fermi o Kepler (este último se sabe que también es una evolución de la arquitectura Fermi); el nuevo GPU está conformado por hasta 128 mini-motores SIMD los que Nvidia aún denomina Streaming Multiprocessor (SM); a diferencia de lo observado en los actuales diseños de Fermi donde cada SM cuenta con 32 (GF110 y GF100) y 48 (GF104,GF114 y otros distintos a GF110 y GF100) procesadores de shaders (CUDA Cores), cada SM de Echelon estará conformado por 8 procesadores (CUDA Cores), los que suponemos deben tener una mucha mayor potencia que los usados en los actuales GPUs de Nvidia; esto nos da 1024 procesadores (128×8) cifra que es el doble que los 512 procesadores del actual Fermi GF110 usado en la Geforce GTX 580.
Tened en cuenta que la actual GTX 680 tiene una potencia de 1536 procesadores en sus entrañas, Echelon/Boulder es un chip que se diseño con dos propósitos en mente, el primero de ellos es el de poder conectar varios de ellos entre si para formar ordenadores de alta potencia y rendimiento, el segundo era para conseguir un contrato con uno de los fabricantes de consolas. No sabemos si Nvidia tiene planes aún para una consola propia o en colaboración con un tercero, lo que he oído por parte de fuentes fiables que es Boulder tiene unas especificaciones que duplican a la de Echelon y con ello superan a las de PS4. Hay rumores de que el chip se fabricaría bajo el proceso de 20nm de Samsung y no el de TSMC, es más, aunque no tenga nada que ver con Nvidia, Masaaki Tsuruta quien fue el CTO de SCEI que hace un año nos hablaba del uso de tecnologías como el TSV en PS4 (no existentes en el diseño final) ha sido contratado recientemente por Samsung. Esto no significa una confirmación de que Nvidia estaría realizando una consola de videojuegos junto a Samsung, pero hay señales que apuntan a esa posibilidad.
Es más, Nvidia al contrario de lo que ocurre con los ensambladores y los fabricantes parece tener una buena relación con los estudios de desarrollo, mucho mejor que la que tiene Nintendo, debido a las relaciones en el ecosistema PC por lo que tienen una buena posición para crear una consola de videojuegos por su parte, otra cosa es que lo hagan, pero hay altas probabilidades de que podrían hacerlo.
Share this:
prepotente1 escribió:...
keevviiiinn escribió:Fijaros que con todo lo que decís la xbox a vendido como churros tan mal no lo habrán hecho no ?
No se si lo sabéis que estamos en un mundo en que la tecnología de un año para otro varia una barbaridad y los precios bajan muchísimo ,seguimos sin datos oficiales pero eso si los rumores y el poner a parir a una consola que ni siquiera tiene datos oficiales me parece increíble xd
Pero vamos sigamos para bingo haber si tan siquiera hacéis linea xd
dicanio1 escribió:Pues las compañías como remedy deben estar ciegas, porque ya an dicho que el salto va a ser muy grande...por algo lo dirán, pero mañana les llamo y les digo que se pasen por aquí,que algunos saben mejor que ellos y sin haberla probado que las nuevas consolas son una mierda...xddddd
Otra vez el tema teraflops...que las compañías y todas las que an hablado, ya an dicho que lo mas importante era la RAM..y la gpu aun no sabemos nada, a ver si va a llevar las nuevas de amd...
Absolute Terror escribió:¿Pero todavia sigues pensando que se ha dicho que la 360 era mejor?
Mira, la single GPU mas potente en 2005 era la ATI Radeon X1800XT = 0,270 teraflops.
La Xenos de la Xbox 360 = 0,250 teraflops (en realidad es un pelin menos, pero no recuerdo la cifra exacta).
Hay una diferencia de un 10% menos de potencia.
La single GPU mas potente de la actualidad es Titan = 4,5 teraflops.
La GPU de PS4 = 1,8 teraflops.
Sin haber salido la consola ya esta muy por debajo de la potencia de la grafica mas potente actual. Para decir que estan en una posicion similar, la GPU de de PS4 deberia tener almenos 4 teraflops, y eso siempre y cuando contando que de aqui a que se acabe el año no salga una grafica mas potente que Titan, claro.
f5inet escribió:Absolute Terror escribió:¿Pero todavia sigues pensando que se ha dicho que la 360 era mejor?
Mira, la single GPU mas potente en 2005 era la ATI Radeon X1800XT = 0,270 teraflops.
La Xenos de la Xbox 360 = 0,250 teraflops (en realidad es un pelin menos, pero no recuerdo la cifra exacta).
Hay una diferencia de un 10% menos de potencia.
La single GPU mas potente de la actualidad es Titan = 4,5 teraflops.
La GPU de PS4 = 1,8 teraflops.
Sin haber salido la consola ya esta muy por debajo de la potencia de la grafica mas potente actual. Para decir que estan en una posicion similar, la GPU de de PS4 deberia tener almenos 4 teraflops, y eso siempre y cuando contando que de aqui a que se acabe el año no salga una grafica mas potente que Titan, claro.
solo por animo de aclarar las cosas, cuando Xbox360 fue presentada, la serie HD2000 de Radeon ya se vendia, y cuando Xbox360 salio a la venta, ya se vendia la serie HD3000. la GPU de xbox360 se podria decir que es una 'HD3450'.
con eso en mente, la Geforce GTX650Ti suena aun mas creible.
prepotente1 escribió:la REALIDAD es que la x360 con su ATI redeon 2000 de hace 7 años mueve crysis3 a una calida altisima y BF3 tambien anda poned bf3 y crysis3 en un pc de hace 7 años! a ver si ACASO sale el logo o si tan siquiea arranca el juego
prepotente1 escribió:una redeon HD7870 a 800mhz e vez de 1ghz de la oficial, ESTO es GPU GAMA MUY ALTA
cpu 8 nucleos, tambien es GAMA ALTA, la gama media usa 4 y la baja 2 de pc
8gb gdd5, NI LAS TITAN de nvidia recien salidas que solo tiene 6gb gddr5 superan a la play4
+ los extras que la propia AMD reconoce, y ay se sabe, que han añadidoa ese SOC
+ que en vez de pc que la gpu va por un lado la cpu por otro, la memoria por otro, el controlador por otro, play4 va todo en el mismo soc con loq ue gana rendimiento
+ ya ni decir el 20% de perdida de potencia ya solo por usar windows
Todo lo demas me parecer "normal" y bueno, se instalan los juegos sin que me preocupe ni espere 1 hora para jugar y el kinect vendra con la consolas como el Move en la playstation, pero sino me lo iba a comprar igual, asi que...
elKUN escribió:Lestat25 escribió:Asumo que una consola no será comparable a un pc
Te conformas con lo de siempre en este mundillo. Es lo lógico. Y la palabra es amargado.
Saludos
elKUN escribió:Todo lo demas me parecer "normal" y bueno, se instalan los juegos sin que me preocupe ni espere 1 hora para jugar y el kinect vendra con la consolas como el Move en la playstation, pero sino me lo iba a comprar igual, asi que...
Es de agradecer que esta gen salgan con SO de calidad. Y no la mierda de los primeros años. Mas dinero invertido, que conformistas somos. Con lo divertido que son los flops. Que se lo digan a vita.
Saludos
superfenix2020 escribió: