Nintendo Switch - Marzo 2017

sabran escribió:
guillian-seed escribió:Además, que más da que llegue enero o no, Nintendo no va a dar las specs de Switch. No las sabremos hasta que algún scener la destripe como pasó con Wii U.


Si la consola montara un buen hardware dentro ya lo sabriamos por boca de Nintendo casi desde el primer dia. Nadie crea una consola con un buen hardware, a una calidad/precio buena, para estar callado. Aqui yo aplicaria el dicho "Si no tienes nada bueno que decir mejor permanecer callado" y parece que se va cumpliendo.


Y además lleva siendo así desde la primera Wii, porque con N64, GC e incluso GBA sí daban specs, así que sí, que la consola no iba a ser un milagro tecnológico ya lo sabíamos. Coño, si es que hasta salió Reggie a decir que NX "no iba de Teraflops"... Lo mismo que Iwata dijo en 2006 respecto a Revolution.
adri079 está baneado del subforo por "flames y faltas de respeto"
Tukaram escribió:Osea ahora unos rumores de que supuestamente no es tan potente como se decia en un principio hay que tomarselos como verdad absoluta ?y de paso asumir que de nuevo multis van a tener pocos ?

joder que gasnas de que llege enero para acabar con tanta ostia XD

Lo dice la lógica,ya te lo dije antes de que te pusieras a decir chorradas, era imposible la potencia de la que hablabas. Nintendo hubiera mencionado tal potencia,se presume de potencia cuando se puede, aunque NS es realmente potente para lo que es,una portátil.
Es que era de cajon y como dices, desde Wii silencio total. Pero vamos que lo filtrado para ser una portatil esta muy bien.
sabran escribió:Es que era de cajon y como dices, desde Wii silencio total. Pero vamos que lo filtrado para ser una portatil esta muy bien.

Tampoco está tan bien si comparas con la NVIDIA Shield Tablet, que ya contaba con un procesador Tegra de 333 GFLOPs hace 2 años por 200€.

O con la Steam Machine Portatil que lleva un SoC AMD con una GPU de 800 GFLOPs.
Tukaram escribió:Osea ahora unos rumores de que supuestamente no es tan potente como se decia en un principio hay que tomarselos como verdad absoluta ?y de paso asumir que de nuevo multis van a tener pocos ?

joder que gasnas de que llege enero para acabar con tanta ostia XD

Los rumores no vienen de mi vecina de arriba. Vienen de Eurogamer, quienes de momento han acertado en TODO lo que han ido filtrando sobre Switch.
josemurcia escribió:
sabran escribió:Es que era de cajon y como dices, desde Wii silencio total. Pero vamos que lo filtrado para ser una portatil esta muy bien.

Tampoco está tan bien si comparas con la NVIDIA Shield Tablet, que ya contaba con un procesador Tegra de 333 GFLOPs hace 2 años por 200€.

O con la Steam Machine Portatil que lleva un SoC AMD con una GPU de 800 GFLOPs.


Para ser Nintendo. Me falto esa coletilla.
Hombre, para ser justos habrá que saber cuál es la autonomía de la consola en modo portátil y compararla con la de la Shield Tablet y la Steam Machine portable esa... También habrá que tener en cuenta el tamaño. En el vídeo de Digital Foundry ya lo dicen, que la mayor parte de la superficie trasera de un iPad es batería (o eso he creído entender, que tampoco estaba haciendo mucho caso XD).

Habrá que ver la potencia de Switch, la batería que monta en esa especie de tablet de 6" que es la unidad principal (porque los mandos llevarán su propia batería) y la autonomía de la misma. Y entonces ya se podrá comparar con Shields y Steam machines...
Lo de D.F. me parece totalmente creible viniendo de nintendo. Tienen un procesador X1 que ya no es puntero tecnologicamente y van y lo capan. Puedo entender la enorme "capada" de frecuencia de la gpu en modo portátil, total 720p no requieren de gran potencia. Pero lo que no encuentro justificable es que le montes un X1 y no seas capaz de sacarle el 100% cuando esta en el dock. Capar el modo sobremesa es algo que no entiendo. ¿No sería mejor invertir en tecnología más barata si no vas a aprovechar toda la potencia?. No sé es como gastarte 1000 pavos en una Titan y luego la underclockeas para que funcione como una 980 Ti. ¿No te saldría más rentable haber invertido en la 980 ti?.

Entiendo la decisión de nintendo de economizar la portátil todo lo posible porque, sin autonomía, llamar portátil a una portátil es absurdo. Pero... ¿caparla en el dock?.... ¿en serio era necesario caparla en el dock también?. Acojonante. Es como comprarte un porsche y cambiarle el motor por el de un seat 600. La logica de nintendo es... impresionante.


josemurcia escribió:Nadie ha pensado las implicaciones que puede tener que lleve un X1 de cara a la emulación?

El SoC está completamente documentado por NVIDIA, tiene su propio SDK y los drivers para Linux son libres.

https://developer.nvidia.com/embedded/linux-tegra


Ahora hace falta que haya programadores con experiencia dispuestos a dedicarle tiempo. Porque si todo esta bien documentado y con drivers libres, solo es cuestion de tiempo y ganas. El lado positivo de sacar tecnología del pleistoceno es que se puede emular nada más salir.

Puede que pase como con la GBA, que había emuladores funcionales sobradamente buenos como para invertir en ella. Y para los que preferimos la sobremesa, esto puede ser una buena noticia.
guillian-seed escribió:Hombre, para ser justos habrá que saber cuál es la autonomía de la consola en modo portátil y compararla con la de la Shield Tablet y la Steam Machine portable esa... También habrá que tener en cuenta el tamaño. En el vídeo de Digital Foundry ya lo dicen, que la mayor parte de la superficie trasera de un iPad es batería (o eso he creído entender, que tampoco estaba haciendo mucho caso XD).

Habrá que ver la potencia de Switch, la batería que monta en esa especie de tablet de 6" que es la unidad principal (porque los mandos llevarán su propia batería) y la autonomía de la misma. Y entonces ya se podrá comparar con Shields y Steam machines...


Para ser justo se debe saber el precio y con que viene, fin. Ni bateria, ni paños calientes. Es mejor un Opel Corsa por tener mas autonomia que F1? Pues eso. Ahora resulta que GameBoy es mejor que 3DS por la duracion de la bateria. Estaria bonito que a estas alturas Nintendo haga como el mando table de la WiiU, mas de la mitad hueco con una bateria ridicula, y aparte te vende la bateria buena.
adri079 está baneado del subforo por "flames y faltas de respeto"
Hay cosas que no os entiendo. si tiene 176 gflops es menos potente que wiiu? es así?
Vamos, lo de la emulación es para jugar por la puta cara, tampoco hace enmascararlo xD
sabran escribió:
guillian-seed escribió:Hombre, para ser justos habrá que saber cuál es la autonomía de la consola en modo portátil y compararla con la de la Shield Tablet y la Steam Machine portable esa... También habrá que tener en cuenta el tamaño. En el vídeo de Digital Foundry ya lo dicen, que la mayor parte de la superficie trasera de un iPad es batería (o eso he creído entender, que tampoco estaba haciendo mucho caso XD).

Habrá que ver la potencia de Switch, la batería que monta en esa especie de tablet de 6" que es la unidad principal (porque los mandos llevarán su propia batería) y la autonomía de la misma. Y entonces ya se podrá comparar con Shields y Steam machines...


Para ser justo se debe saber el precio y con que viene, fin. Ni bateria, ni paños calientes. Es mejor un Opel Corsa por tener mas autonomia que F1? Pues eso. Ahora resulta que GameBoy es mejor que 3DS por la duracion de la bateria. Estaria bonito que a estas alturas Nintendo haga como el mando table de la WiiU, mas de la mitad hueco con una bateria ridicula, y aparte te vende la bateria buena.


Hombre, tampoco tienen un rendimiento equiparable una 3DS y una Gameboy, ni la misma pantalla :p. Digo yo que puestos a comparar con algo "similar" (Nvidia Shield, vamos a suponer), pues habrá que saber la batería de ambos cacharros, no sólo el rendimiento.

Pero sí, el precio es otro factor a tener en cuenta a la hora de comparar. Yo apostaría por 250€ consola + dock + acople del mando.


San Telmo 2 escribió:Lo de D.F. me parece totalmente creible viniendo de nintendo. Tienen un procesador X1 que ya no es puntero tecnologicamente y van y lo capan. Puedo entender la enorme "capada" de frecuencia de la gpu en modo portátil, total 720p no requieren de gran potencia. Pero lo que no encuentro justificable es que le montes un X1 y no seas capaz de sacarle el 100% cuando esta en el dock. Capar el modo sobremesa es algo que no entiendo. ¿No sería mejor invertir en tecnología más barata si no vas a aprovechar toda la potencia?. No sé es como gastarte 1000 pavos en una Titan y luego la underclockeas para que funcione como una 980 Ti. ¿No te saldría más rentable haber invertido en la 980 ti?.

Entiendo la decisión de nintendo de economizar la portátil todo lo posible porque, sin autonomía, llamar portátil a una portátil es absurdo. Pero... ¿caparla en el dock?.... ¿en serio era necesario caparla en el dock también?. Acojonante. Es como comprarte un porsche y cambiarle el motor por el de un seat 600. La logica de nintendo es... impresionante.


josemurcia escribió:Nadie ha pensado las implicaciones que puede tener que lleve un X1 de cara a la emulación?

El SoC está completamente documentado por NVIDIA, tiene su propio SDK y los drivers para Linux son libres.

https://developer.nvidia.com/embedded/linux-tegra


Ahora hace falta que haya programadores con experiencia dispuestos a dedicarle tiempo. Porque si todo esta bien documentado y con drivers libres, solo es cuestion de tiempo y ganas. El lado positivo de sacar tecnología del pleistoceno es que se puede emular nada más salir.

Puede que pase como con la GBA, que había emuladores funcionales sobradamente buenos como para invertir en ella. Y para los que preferimos la sobremesa, esto puede ser una buena noticia.


Es un "custom Tegra" según la nota de Nvidia... Lo que no aclaraba era si lo de Custom era hacia abajo o hacia arriba XD

Yo creo que algo ahorraran en costes y en calor, "customizando" el tegra hacia abajo. Además de que la experiencia debe ser equivalente en portátil y sobremesa, sólo con diferente resolución, en todo caso. Esas serían las razones, creo yo.

De todos modos que a nadie se le olvide que las Shield funcionan con Android mientras que Switch es un entorno cerrado gracias al cual los desarrolladores deberían sacarle más partido al hard.

Yo esperaría una Wii U + en potencia.
guillian-seed escribió:
Es un "custom Tegra" según la nota de Nvidia... Lo que no aclaraba era si lo de Custom era hacia abajo o hacia arriba XD

Yo creo que algo ahorraran en costes y en calor, "customizando" el tegra hacia abajo. Además de que la experiencia debe ser equivalente en portátil y sobremesa, sólo con diferente resolución, en todo caso. Esas serían las razones, creo yo.

De todos modos que a nadie se le olvide que las Shield funcionan con Android mientras que Switch es un entorno cerrado gracias al cual los desarrolladores deberían sacarle más partido al hard.

Yo esperaría una Wii U + en potencia.



Está en portada ahora mismo:

hilo_detalles-sobre-la-frecuencia-del-procesador-y-tarjeta-grafica-de-nintendo-switch_2206529

Es un X1 capado según el análisis de D.F. que, hasta la fecha, lleva un "full" de aciertos con Switch. (Y una muy buena reputación con otros hardware).

Y reitero que me parece un acierto la capada brutal de potencia en modo portátil, porque la autonomía es muy importante.

Pero capar el modo "dock", yo personalmente no le veo ni pies ni cabeza. Es como he dicho antes, gastarte un pastón en una Titan y underclockearla para que te funcione como una 980ti, ¿no habría sido más rentable invertir directamente en la 980ti?. Es absurdo no sacarle todo el rendimiento una vez puesta en el dock (que supongo que con tanto ingeniero habrán encontrado el modo de que esté bien refrigerada).
guillian-seed escribió:De todos modos que a nadie se le olvide que las Shield funcionan con Android mientras que Switch es un entorno cerrado gracias al cual los desarrolladores deberían sacarle más partido al hard.

A pesar de la mala fama que pueda tener Android, es un SO muy liviano, que permite ejecutar código nativo y que con Vulkan y sus extensiones poca diferencia habrá entre lo que se le pueda sacar a un Tegra cualquiera y a Switch.
adri079 escribió:
Tukaram escribió:Osea ahora unos rumores de que supuestamente no es tan potente como se decia en un principio hay que tomarselos como verdad absoluta ?y de paso asumir que de nuevo multis van a tener pocos ?

joder que gasnas de que llege enero para acabar con tanta ostia XD

Lo dice la lógica,ya te lo dije antes de que te pusieras a decir chorradas, era imposible la potencia de la que hablabas. Nintendo hubiera mencionado tal potencia,se presume de potencia cuando se puede, aunque NS es realmente potente para lo que es,una portátil.


Te lo vuelvo a decir por 2º

cuando aprendas educacion y no llames amargada a la gente de primeras entonces dirigete a mi si quieres y hablaremos de lo que quieras hasta ese momento no te pienso contestar absolutamente nada



chao simpatico
San Telmo 2 escribió:Pero capar el modo "dock", yo personalmente no le veo ni pies ni cabeza.

No está capado. La GPU y memoria la ponen a más velocidad. La CPU la conservan igual para que no afecte a la ejecución de la lógica al cambiar de modo. Si no la ponen a más en modo dock será por temas de temperatura y fiabilidad, otro aspecto que mencioné de la Shield, una carcasa grande y ventilada respecto a una portátil con pantalla incluída.
La verdad es que ninguna sorpresa. En vez de coger la solución más moderna de nvidia van y cogen la anterior, y encima la bajan de vueltas.
Es de risa que sea menos potente que la shield que tiene...un par de años ya?

Por ratear en potencia les va a pasar exactamente lo mismo que con la wiiu. Se van a quedar totalmente descolgados en cuanto a catálogo antes de tiempo.

De verdad que me gustaría ver las reuniones de las cabezas pensantes de nintendo porque creo que viven en una dimensión paralela.
edman escribió:Realmente si las especificaciones son estas, supongo que lo mejor que les puede pasar a los que la compren (yo aún tengo bastantes dudas, aunque no la descarto) es que se produzca un fenómeno wii. Que venda mucho a gente que no se va a fijar en exceso en resoluciones y demás, incluyendo a gente no especialmente interesada en videojuegos. Lo digo porque las especificaciones ya no van a cambiar, pero si vende, al menos te "aseguras" un cierto catálogo y longevidad. Obviamente esto se acompaña de morralla a toneladas, pero a nosotros nos va a costar poco separar la paja del grano.


Longevidad!? Si vende, acepto pulpo de que se hará con un catálogo decente (creo que incluso Wii U lo tiene para lo poco que ha vendido), pero que por vender sea más longeva; para nada. La Wii fue un éxito de masas y ventas, y en 4 años fue la primera de la gen en caer y en ver como sus lanzamientos eran de pena en número y calidad...

P.D Mucho mejor sabor de boca me deja la malograda Wii U que la exitosa Wii.
Lo único que salvaría a Nintendo, es que fuera una consola ridiculamente barata, pero no lo va a ser.
marx666 escribió:Lo único que salvaría a Nintendo, es que fuera una consola ridiculamente barata, pero no lo va a ser.

Coje una tablet equivalente y añádele el impuesto nintendo.

Tampoco sé de que os sorprendéis, si queréis una autonomía de portátil de verdad, era esto o baterías pesadas y/o caras. Lo que queda claro es que multiplaformas recibirá más de android que de pc/ps4/xone
fertrance escribió:
marx666 escribió:Lo único que salvaría a Nintendo, es que fuera una consola ridiculamente barata, pero no lo va a ser.

Coje una tablet equivalente y añádele el impuesto nintendo.

Tampoco sé de que os sorprendéis, si queréis una autonomía de portátil de verdad, era esto o baterías pesadas y/o caras. Lo que queda claro es que multiplaformas recibirá más de android que de pc/ps4/xone


O haberlo hecho Pascal, que hubiera ganado en eficiencia.
San Telmo 2 escribió:Puedo entender la enorme "capada" de frecuencia de la gpu en modo portátil, total 720p no requieren de gran potencia. Pero lo que no encuentro justificable es que le montes un X1 y no seas capaz de sacarle el 100% cuando esta en el dock. Capar el modo sobremesa es algo que no entiendo.

Yo eso lo veo bastante claro. Si en modo portatil no se puede sacar mas rendimiento que ese 30% del X1, y todos los juegos tienen que funcionar OK de base en ese modo, es tonteria que el modo dock rinda mas de lo maximo que consideren que pueda costar añadir los ajustes sobremesa, y ese x2.5 parece sobrante en ese sentido. Para que hacer un x3.3 y reducir la vida de la maquina?
fertrance escribió:Tampoco sé de que os sorprendéis, si queréis una autonomía de portátil de verdad


Yo no entiendo porque siendo una sucesora de Wii U tiene que ser una portatil, por mucho que me lo expliquen sigo sin entenderlo desde un punto de vista empresarial, no entiendo que gana Nintendo con esta "unificacion".
marx666 escribió:Lo único que salvaría a Nintendo, es que fuera una consola ridiculamente barata, pero no lo va a ser.



pues unos 300 lo veo un buen precio

de todas formas swich ha generado muchisima mas atencion que wiiU en su dia asi que al menos de inicio sobretodo si apoyan la salida con un catalogo interesante le ira mejor que a wiiU luego habra que ver si se mantiene o no

de todas formas no veo que nintendo necesite ser salvada que digamos con DS y pokemon lo sigen petando haciendo dinero como churros


@triki1 gana lo que se ha estado perdiendo desde hace años el componente social y publico de jugar con tus amigos a la consola y compartir la experiencia cara a cara con ellos cosa que por mucho que te vendan no es ni por asomo lo que se hace jugando online desde tu casa
A mi 300 euros me parecería un atraco, en mi opinión.
marx666 escribió:A mi 300 euros me parecería un atraco, en mi opinión.


Que eres de esos de 99 o nada ? XD
marx666 escribió:A mi 300 euros me parecería un atraco, en mi opinión.

Si hablamos de la maquina pelada, descomunal. Con todos estos datos de hoy, me decanto mucho mas por los 199 que por los 249. A 249 (pelada) se llevara un palo en el mercado no fan. El fan ya sabemos que la agotara de lanzamiento a cualquier precio, pero con eso no vale.
Tukaram escribió:
marx666 escribió:A mi 300 euros me parecería un atraco, en mi opinión.


Que eres de esos de 99 o nada ? XD


Si los rumores son ciertos, 200 euros.
Bueno tampoco sabremos si no saldra con un juego en pack o algo asi

pero vamos yo creo que acabara saliendo por 250

aunque un pack consola + zelda por 300 creo que seria un pelotazo la verdad

habra que esperar a enero
Si los rumores son ciertos, Nvidia el dia 20 de agosto de 2016 nos mintio a todos en su blog:

The first thing to know about the new Nintendo Switch home gaming system: it’s really fun to play. With great graphics, loads of game titles and incredible performance, the Nintendo Switch will provide people with many hours of engaging and interactive gaming entertainment.

But creating a device so fun required some serious engineering. The development encompassed 500 man-years of effort across every facet of creating a new gaming platform: algorithms, computer architecture, system design, system software, APIs, game engines and peripherals. They all had to be rethought and redesigned for Nintendo to deliver the best experience for gamers, whether they’re in the living room or on the move.

A Console Architecture for the Living Room and Beyond

Nintendo Switch is powered by the performance of the custom Tegra processor. The high-efficiency scalable processor includes an NVIDIA GPU based on the same architecture as the world’s top-performing GeForce gaming graphics cards.

Nintendo SwitchThe Nintendo Switch’s gaming experience is also supported by fully custom software, including a revamped physics engine, new libraries, advanced game tools and libraries. NVIDIA additionally created new gaming APIs to fully harness this performance. The newest API, NVN, was built specifically to bring lightweight, fast gaming to the masses.

Gameplay is further enhanced by hardware-accelerated video playback and custom software for audio effects and rendering.

We’ve optimized the full suite of hardware and software for gaming and mobile use cases. This includes custom operating system integration with the GPU to increase both performance and efficiency.

NVIDIA gaming technology is integrated into all aspects of the new Nintendo Switch home gaming system, which promises to deliver a great experience to gamers.

The Nintendo Switch will be available in March 2017. More information is available at https://www.nintendo.com/switch.

Nintendo Switch is a trademark of Nintendo.
¿En qué mintió exactamente?
triki1 escribió:
fertrance escribió:Tampoco sé de que os sorprendéis, si queréis una autonomía de portátil de verdad


Yo no entiendo porque siendo una sucesora de Wii U tiene que ser una portatil, por mucho que me lo expliquen sigo sin entenderlo desde un punto de vista empresarial, no entiendo que gana Nintendo con esta "unificacion".


No tener momentos de sequía como ha pasado con WiiU.

De este modo unifican su portfolio de desarrollo entre portátil y consola, ofreciendo más garantías de software más continuado.
En que lleva un Tegra y ahora parece ser que no ?
¿Sobre el precio se sabe algo?
Entonces en que se supone que mintieron porque yo ya me he perdido
Tukaram escribió:Entonces en que se supone que mintieron porque yo ya me he perdido


¿Y a mi qué me cuentas? Pregúntale al que dice que Nvidia minitó.

Por cierto @pipitagamer, la entrada del blog es del 20 de Octubre, no el 20 de Agosto.

https://blogs.nvidia.com/blog/2016/10/2 ... do-switch/
josemurcia escribió:¿En qué mintió exactamente?


Creo que sabes perfectamente a lo que me refiero.
Un ejemplo:

Como dato, la SmachZ(Steam Machine portable) tiene 800 GFLOPs si no han mentido con las especificaciones.


Entonces Nvidia la numero 1 en graficas necesita 1 año y 500 ingenieros para hacer algo peor que tu ejemplo?

Ami esto me suena a los tipicos compañeros que escurren el bulto, si claro ayer 12 horas estuve para terminar la obra... y cuando llegas es una chapuza que un peon podria realizar en mucho menos=DMP

@mocolostrocolos Cierto fallo mio, gracias!
josemurcia escribió:¿En qué mintió exactamente?


Cuando dice "the same architecture as the world’s top-performing GeForce gaming graphics cards."

Corregidme si me equivoco pero creo que la arquitectura top en el mundo de Nvidia en gráficas es Pascal no? Maxwell supongo que es top también y no mienten pero la gente pensó en Pascal viniendo de rumores anteriores nunca confirmados por otra parte
Eso no es mentir, es vender la moto al mismo nivel que cualquier empresa que presenta algo. Ya se dijo que la frase aquella de "lleva algo que llevan las tarjetas punteras" sin atreverse a decir que y como era cuanto menos sospechoso, pero la gente tachaba de troll y ya esta.

mocolostrocolos escribió:No tener momentos de sequía como ha pasado con WiiU.

De este modo unifican su portfolio de desarrollo entre portátil y consola, ofreciendo más garantías de software más continuado.

Eso, es que es bastante relativo y por verse. 3DS sigue siendo 3DS, y NS es igual o mas potente que WiiU. Que es exactamente lo que cambia en ese aspecto de WiiU a NS? Si en WiiU sacaban productos expresos para WiiU y no los de 3DS, no veo porque ahora fuera a cambiar, NS seguira teniendo productos Nintendo que aprovechen sus caracteristicas. Y 3DS continuara teniendo sus juegos pensados para un hardware 25 veces inferior.
Sí, todos vimos cómo DS no iba a sustituir a GBA.
@NeCLaRT
No, no es lo mismo, "lleva algo que llevan las tarjetas punteras" a decir que la GPU esta basada en las Geforce top y que han invertido 500 años-hombres (sii seran 500 ingenieros y un año) de trabajo para algo que ya tenian hecho, eso no es vender la moto es mentir al personal y Nintendo se a dejado estafar en su puñetera cara.
50$ por chip en NS se llevan, joder pues ya venden caro el X1 no?
IridiumArkangel escribió:
edman escribió:Realmente si las especificaciones son estas, supongo que lo mejor que les puede pasar a los que la compren (yo aún tengo bastantes dudas, aunque no la descarto) es que se produzca un fenómeno wii. Que venda mucho a gente que no se va a fijar en exceso en resoluciones y demás, incluyendo a gente no especialmente interesada en videojuegos. Lo digo porque las especificaciones ya no van a cambiar, pero si vende, al menos te "aseguras" un cierto catálogo y longevidad. Obviamente esto se acompaña de morralla a toneladas, pero a nosotros nos va a costar poco separar la paja del grano.


Longevidad!? Si vende, acepto pulpo de que se hará con un catálogo decente (creo que incluso Wii U lo tiene para lo poco que ha vendido), pero que por vender sea más longeva; para nada. La Wii fue un éxito de masas y ventas, y en 4 años fue la primera de la gen en caer y en ver como sus lanzamientos eran de pena en número y calidad...

P.D Mucho mejor sabor de boca me deja la malograda Wii U que la exitosa Wii.


Aclaro que yo no he tenido wiiU, pero mirandolo a puro ojimetro no veo que nintendo haya dado más de sí en wiiu que en wii.
A nivel de exclusivos las ha nutrido parecido siendo benevolentes. Porque la segunda no tiene ni un mario tocho de verdad, y la primera tenía dos.
Por otra parte, tenia metroid propio, zelda exclusivo, sagas viejunas recuperadas como punch out o sin and punishment...
Sí es cierto que al mirar wiiu ves un catalogo de muy buenos juegos, con una media de calidad altisima seguramente, pero aunque el promedio sea peor en wii, yo creo que hay mas buenos juegos en ésta.

Saludos

Edito y añado: en longevidad te doy la razón, las dos han tenido un final apoteósico [carcajad]
Don_Boqueronnn escribió:
josemurcia escribió:¿En qué mintió exactamente?


Cuando dice "the same architecture as the world’s top-performing GeForce gaming graphics cards."

Corregidme si me equivoco pero creo que la arquitectura top en el mundo de Nvidia en gráficas es Pascal no? Maxwell supongo que es top también y no mienten pero la gente pensó en Pascal viniendo de rumores anteriores nunca confirmados por otra parte

Estas declaraciones, si hacemos memoria, son habituales.

Recuerdo que para Wii por ejemplo (una pedazo de chusta a nivel técnico) Ati también sacó una nota de prensa similar. Que estaban encantados de ofrecer tecnología puntera en colaboración con nintendo y bla bla bla. No hay que buscarle más historia a esto.

La verdad que nintendo no aprende. Pudiendo ofrecer pascal, se conforma con la generación anterior. Y a los 3-4 años a enterrar esta y a sacar otra. Ya lo llevan haciendo 2 generaciones y nada, que no hay manera.

Yo digo 300€ de salida pelada sin juego. Si con el desastre que ha sido wiiu no se han dignado a tener una política de precios agresiva, no lo van a hacer con una consola nueva y que está generando expectación.
mocolostrocolos escribió:Sí, todos vimos cómo DS no iba a sustituir a GBA.

GBA y DS son el mismo tipo de producto, NS y 3DS tienen lo justo en comun, a nivel de desarrollo nada, lo mismo que tenia con WiiU. No se de que forma puede abandonarse un mercado en monopolio para pasarse a otro pendiente de un hilo que es una incognita total tirando la locura de usuarios que tienen en el otro. No veo la posibilidad retorciendolo de ninguna manera.

Vamos lo que tu dices aplica a WiiU, que es la que aseguraban que no iba a sustituir y obviamente sustituye. 3DS o su sustituta nada pintan ahi, ni es el mismo mercado ni ofrecen los mismos productos. NS va a ofrecer productos de acabado minimo WiiU, es lo que sus usuarios van a esperar en ella.

Pipitagamer escribió:No, no es lo mismo, "lleva algo que llevan las tarjetas punteras" a decir que la GPU esta basada en las Geforce top y que han invertido 500 años-hombres (sii seran 500 ingenieros y un año) de trabajo para algo que ya tenian hecho, eso no es vender la moto es mentir al personal y Nintendo se a dejado estafar en su puñetera cara.
50$ por chip en NS se llevan, joder pues ya venden caro el X1 no?

Hay graficas punteras maxwell. Y esos ingenieros estarian reduciendolo a hacerlo funcionar en modo bateria acordemente y preparando todo el software asociado, si es que estaban y no es una frase comercial sin mas. No se exactamente que ves de raro ahi eso es el dia a dia en cualquier industria.
Don_Boqueronnn escribió:
josemurcia escribió:¿En qué mintió exactamente?


Cuando dice "the same architecture as the world’s top-performing GeForce gaming graphics cards."

Corregidme si me equivoco pero creo que la arquitectura top en el mundo de Nvidia en gráficas es Pascal no? Maxwell supongo que es top también y no mienten pero la gente pensó en Pascal viniendo de rumores anteriores nunca confirmados por otra parte


Hoy en día sí (con la gama de las 1080), pero supongo que cuando escribieron eso sería Maxwell (la gama de la 980). El problema es que el tema de las gráficas en PC evoluciona de un año para otro y la consola tarda mucho más en salir. Por eso pasa lo que pasa.
Dejo esto por aquí que me ha parecido interesante, del mismo que puse antes, no lo acabo de entender del todo pero bueno entre tanto con ganas de crear expectativas falsas ya no me fio y voy buscando gente que sepa y que sea realista sin querer confundir a la gente

Originally Posted by Thraktor
I haven't had time to read through every response here, so I'm probably repeating what others have already said, but here are my thoughts on the matter, anyway:

CPU Clock

This isn't really surprising, given (as predicted) CPU clocks stay the same between portable and docked mode to make sure games don't suddenly become CPU limited when running in portable mode.

The overall performance really depends on the core configuration. An octo-core A72 setup at 1GHz would be pretty damn close to PS4's 1.6GHZ 8-core Jaguar CPU. I don't necessarily expect that, but a 4x A72 + 4x A53 @ 1GHz should certainly be able to provide "good enough" performance for ports, and wouldn't be at all unreasonable to expect.

Memory Clock

This is also pretty much as expected as 1.6GHz is pretty much the standard LPDDR4 clock speed (which I guess confirms LPDDR4, not that there was a huge amount of doubt). Clocking down in portable mode is sensible, as lower resolution means smaller framebuffers means less bandwidth needed, so they can squeeze out a bit of extra battery life by cutting it down.

Again, though, the clock speed is only one factor. There are two other things that can come into play here. The second factor, obviously enough, is the bus width of the memory. Basically, you're either looking at a 64 bit bus, for 25.6GB/s, or a 128 bit bus, for 51.2GB/s of bandwidth. The third is any embedded memory pools or cache that are on-die with the CPU and GPU. Nintendo hasn't shied away from large embedded memory pools or cache before (just look at the Wii U's CPU, its GPU, the 3DS SoC, the n3DS SoC, etc., etc.), so it would be quite out of character for them to avoid such customisations this time around. Nvidia's GPU architectures from Maxwell onwards use tile-based rendering, which allows them to use on-die caches to reduce main memory bandwidth consumption, which ties in quite well with Nintendo's habits in this regard. Something like a 4MB L3 victim cache (similar to what Apple uses on their A-series SoCs) could potentially reduce bandwidth requirements by quite a lot, although it's extremely difficult to quantify the precise benefit.

GPU Clock

This is where things get a lot more interesting. To start off, the relationship between the two clock speeds is pretty much as expected. With a target of 1080p in docked mode and 720p in undocked mode, there's a 2.25x difference in pixels to be rendered, so a 2.5x difference in clock speeds would give developers a roughly equivalent amount of GPU performance per pixel in both modes.

Once more, though, and perhaps most importantly in this case, any interpretation of the clock speeds themselves is entirely dependent on the configuration of the GPU, namely the number of SMs (also ROPs, front-end blocks, etc, but we'll assume that they're kept in sensible ratios).

Case 1: 2 SMs - Docked: 384 GF FP32 / 768 GF FP16 - Portable: 153.6 GF FP32 / 307.2 GF FP16

I had generally been assuming that 2 SMs was the most likely configuration (as, I believe, had most people), simply on the basis of allowing for the smallest possible SoC which could meet Nintendo's performance goals. I'm not quite so sure now, for a number of reasons.

Firstly, if Nintendo were to use these clocks with a 2 SM configuration (assuming 20nm), then why bother with active cooling? The Pixel C runs a passively cooled TX1, and although people will be quick to point out that Pixel C throttles its GPU clocks while running for a prolonged time due to heat output, there are a few things to be aware of with Pixel C. Firstly, there's a quad-core A57 CPU cluster at 1.9GHz running alongside it, which on 20nm will consume a whopping 7.39W when fully clocked. Switch's CPU might be expected to only consume around 1.5W, by comparison. Secondly, although I haven't been able to find any decent analysis of Pixel C's GPU throttling, the mentions of it I have found indicate that, although it does throttle, the drop in performance is relatively small, and as it's clocked about 100MHz above Switch to begin with it may only be throttling down to a 750MHz clock or so even under prolonged workloads. There is of course the fact that Pixel C has an aluminium body to allow for easier thermal dissipation, but it likely would have been cheaper (and mechanically much simpler) for Nintendo to adopt the same approach, rather than active cooling.

Alternatively, we can think of it a different way. If Switch has active cooling, then why clock so low? Again assuming 20nm, we know that a full 1GHz clock shouldn't be a problem for active cooling, even with a very small quiet fan, given the Shield TV (which, again, uses a much more power-hungry CPU than Switch). Furthermore, if they wanted a 2.5x ratio between the two clock speeds, that would give a 400MHz clock in portable mode. We know that the TX1, with 2 SMs on 20nm, consumes 1.51W (GPU only) when clocked at about 500MHz. Even assuming that that's a favourable demo for the TX1, at 20% lower clock speed I would be surprised if a 400MHz 2 SM GPU would consume any more than 1.5W. That's obviously well within the bounds for passive cooling, but even being very conservative with battery consumption it shouldn't be an issue. The savings from going from 400MHz to 300MHz would perhaps only increase battery life by about 5-10% tops, which makes it puzzling why they'd turn down the extra performance.

Finally, the recently published Switch patent application actually explicitly talks about running the fan at a lower RPM while in portable mode, and doesn't even mention the possibility of turning it off while running in portable mode. A 2 SM 20nm Maxwell GPU at ~300MHz shouldn't require a fan at all, and although it's possible that they've changed their mind since filing the patent in June, it begs the question of why they would even consider running the fan in portable mode if their target performance was anywhere near this.

Case 2: 3 SMs - Docked: 576 GF FP32 / 1,152 GF FP16 - Portable: 230.4 GF FP32 / 460.8 GF FP16

This is a bit closer to the performance level we've been led to expect, and it does make a little bit of sense from the perspective of giving a little bit over TX1 performance at lower power consumption. (It also matches reports of overclocked TX1s in early dev kits, as you'd need to clock a bit over the standard 1GHz to reach docked performance here.) Active cooling while docked makes sense for a 3 SM GPU at 768MHz, although wouldn't be needed in portable mode. It still leaves the question of why not use 1GHz/400MHz clocks, as even with 3 SMs they should be able to get by with passive cooling at 400MHz, and battery consumption shouldn't be that much of an issue.

Case 3: 4 SMs - Docked: 768 GF FP32 / 1,536 GF FP16 - Portable: 307.2 GF FP32 / 614.4 GF FP16

This would be on the upper limit of what's been expected, performance wise, and the clock speeds start to make more sense at this point, as portable power consumption for the GPU would be around the 2W mark, so further clock increases may start to effect battery life a bit too much (not that 400-500MHz would be impossible from that point of view, though). Active cooling would be necessary in docked mode, but still shouldn't be needed in portable mode (except perhaps if they go with a beefier CPU config than expected).

Case 4: More than 4 SMs

I'd consider this pretty unlikely, but just from the point of view of "what would you have to do to actually need active cooling in portable mode at these clocks", something like 6 SMs would probably do it (1.15 TF FP32/2.3 TF FP16 docked, 460 GF FP32/920 GF FP16 portable), but I wouldn't count on that. For one, it's well beyond the performance levels that reliable-so-far journalists have told us to expect, but it would also require a much larger die than would be typical for a portable device like this (still much smaller than PS4/XBO SoCs, but that's a very different situation).

TL:DR

Each of these numbers are only a single variable in the equation, and we need to know things like CPU configuration, memory bus width, embedded memory pools, number of GPU SMs, etc. to actually fill out the rest of those equations to get the relevant info. Even on the worst end of the spectrum, we're still getting by far the most ambitious portable that Nintendo's ever released, which also doubles as a home console that's noticeably higher performing than Wii U, which is fine by me.
San Telmo 2 escribió:
Don_Boqueronnn escribió:
josemurcia escribió:¿En qué mintió exactamente?


Cuando dice "the same architecture as the world’s top-performing GeForce gaming graphics cards."

Corregidme si me equivoco pero creo que la arquitectura top en el mundo de Nvidia en gráficas es Pascal no? Maxwell supongo que es top también y no mienten pero la gente pensó en Pascal viniendo de rumores anteriores nunca confirmados por otra parte


Hoy en día sí (con la gama de las 1080), pero supongo que cuando escribieron eso sería Maxwell (la gama de la 980). El problema es que el tema de las gráficas en PC evoluciona de un año para otro y la consola tarda mucho más en salir. Por eso pasa lo que pasa.


Para ser exactos el 22 de julio de este mismo año se anuncio la Titan X pascal y Nvidia un meses despues comenta eso en su blog asi que no pasa lo que comentas en este caso.
Don_Boqueronnn escribió:Dejo esto por aquí que me ha parecido interesante, del mismo que puse antes, no lo acabo de entender del todo pero bueno entre tanto con ganas de crear expectativas falsas ya no me fio y voy buscando gente que sepa y que sea realista sin querer confundir a la gente

Originally Posted by Thraktor
I haven't had time to read through every response here, so I'm probably repeating what others have already said, but here are my thoughts on the matter, anyway:

CPU Clock

This isn't really surprising, given (as predicted) CPU clocks stay the same between portable and docked mode to make sure games don't suddenly become CPU limited when running in portable mode.

The overall performance really depends on the core configuration. An octo-core A72 setup at 1GHz would be pretty damn close to PS4's 1.6GHZ 8-core Jaguar CPU. I don't necessarily expect that, but a 4x A72 + 4x A53 @ 1GHz should certainly be able to provide "good enough" performance for ports, and wouldn't be at all unreasonable to expect.

Memory Clock

This is also pretty much as expected as 1.6GHz is pretty much the standard LPDDR4 clock speed (which I guess confirms LPDDR4, not that there was a huge amount of doubt). Clocking down in portable mode is sensible, as lower resolution means smaller framebuffers means less bandwidth needed, so they can squeeze out a bit of extra battery life by cutting it down.

Again, though, the clock speed is only one factor. There are two other things that can come into play here. The second factor, obviously enough, is the bus width of the memory. Basically, you're either looking at a 64 bit bus, for 25.6GB/s, or a 128 bit bus, for 51.2GB/s of bandwidth. The third is any embedded memory pools or cache that are on-die with the CPU and GPU. Nintendo hasn't shied away from large embedded memory pools or cache before (just look at the Wii U's CPU, its GPU, the 3DS SoC, the n3DS SoC, etc., etc.), so it would be quite out of character for them to avoid such customisations this time around. Nvidia's GPU architectures from Maxwell onwards use tile-based rendering, which allows them to use on-die caches to reduce main memory bandwidth consumption, which ties in quite well with Nintendo's habits in this regard. Something like a 4MB L3 victim cache (similar to what Apple uses on their A-series SoCs) could potentially reduce bandwidth requirements by quite a lot, although it's extremely difficult to quantify the precise benefit.

GPU Clock

This is where things get a lot more interesting. To start off, the relationship between the two clock speeds is pretty much as expected. With a target of 1080p in docked mode and 720p in undocked mode, there's a 2.25x difference in pixels to be rendered, so a 2.5x difference in clock speeds would give developers a roughly equivalent amount of GPU performance per pixel in both modes.

Once more, though, and perhaps most importantly in this case, any interpretation of the clock speeds themselves is entirely dependent on the configuration of the GPU, namely the number of SMs (also ROPs, front-end blocks, etc, but we'll assume that they're kept in sensible ratios).

Case 1: 2 SMs - Docked: 384 GF FP32 / 768 GF FP16 - Portable: 153.6 GF FP32 / 307.2 GF FP16

I had generally been assuming that 2 SMs was the most likely configuration (as, I believe, had most people), simply on the basis of allowing for the smallest possible SoC which could meet Nintendo's performance goals. I'm not quite so sure now, for a number of reasons.

Firstly, if Nintendo were to use these clocks with a 2 SM configuration (assuming 20nm), then why bother with active cooling? The Pixel C runs a passively cooled TX1, and although people will be quick to point out that Pixel C throttles its GPU clocks while running for a prolonged time due to heat output, there are a few things to be aware of with Pixel C. Firstly, there's a quad-core A57 CPU cluster at 1.9GHz running alongside it, which on 20nm will consume a whopping 7.39W when fully clocked. Switch's CPU might be expected to only consume around 1.5W, by comparison. Secondly, although I haven't been able to find any decent analysis of Pixel C's GPU throttling, the mentions of it I have found indicate that, although it does throttle, the drop in performance is relatively small, and as it's clocked about 100MHz above Switch to begin with it may only be throttling down to a 750MHz clock or so even under prolonged workloads. There is of course the fact that Pixel C has an aluminium body to allow for easier thermal dissipation, but it likely would have been cheaper (and mechanically much simpler) for Nintendo to adopt the same approach, rather than active cooling.

Alternatively, we can think of it a different way. If Switch has active cooling, then why clock so low? Again assuming 20nm, we know that a full 1GHz clock shouldn't be a problem for active cooling, even with a very small quiet fan, given the Shield TV (which, again, uses a much more power-hungry CPU than Switch). Furthermore, if they wanted a 2.5x ratio between the two clock speeds, that would give a 400MHz clock in portable mode. We know that the TX1, with 2 SMs on 20nm, consumes 1.51W (GPU only) when clocked at about 500MHz. Even assuming that that's a favourable demo for the TX1, at 20% lower clock speed I would be surprised if a 400MHz 2 SM GPU would consume any more than 1.5W. That's obviously well within the bounds for passive cooling, but even being very conservative with battery consumption it shouldn't be an issue. The savings from going from 400MHz to 300MHz would perhaps only increase battery life by about 5-10% tops, which makes it puzzling why they'd turn down the extra performance.

Finally, the recently published Switch patent application actually explicitly talks about running the fan at a lower RPM while in portable mode, and doesn't even mention the possibility of turning it off while running in portable mode. A 2 SM 20nm Maxwell GPU at ~300MHz shouldn't require a fan at all, and although it's possible that they've changed their mind since filing the patent in June, it begs the question of why they would even consider running the fan in portable mode if their target performance was anywhere near this.

Case 2: 3 SMs - Docked: 576 GF FP32 / 1,152 GF FP16 - Portable: 230.4 GF FP32 / 460.8 GF FP16

This is a bit closer to the performance level we've been led to expect, and it does make a little bit of sense from the perspective of giving a little bit over TX1 performance at lower power consumption. (It also matches reports of overclocked TX1s in early dev kits, as you'd need to clock a bit over the standard 1GHz to reach docked performance here.) Active cooling while docked makes sense for a 3 SM GPU at 768MHz, although wouldn't be needed in portable mode. It still leaves the question of why not use 1GHz/400MHz clocks, as even with 3 SMs they should be able to get by with passive cooling at 400MHz, and battery consumption shouldn't be that much of an issue.

Case 3: 4 SMs - Docked: 768 GF FP32 / 1,536 GF FP16 - Portable: 307.2 GF FP32 / 614.4 GF FP16

This would be on the upper limit of what's been expected, performance wise, and the clock speeds start to make more sense at this point, as portable power consumption for the GPU would be around the 2W mark, so further clock increases may start to effect battery life a bit too much (not that 400-500MHz would be impossible from that point of view, though). Active cooling would be necessary in docked mode, but still shouldn't be needed in portable mode (except perhaps if they go with a beefier CPU config than expected).

Case 4: More than 4 SMs

I'd consider this pretty unlikely, but just from the point of view of "what would you have to do to actually need active cooling in portable mode at these clocks", something like 6 SMs would probably do it (1.15 TF FP32/2.3 TF FP16 docked, 460 GF FP32/920 GF FP16 portable), but I wouldn't count on that. For one, it's well beyond the performance levels that reliable-so-far journalists have told us to expect, but it would also require a much larger die than would be typical for a portable device like this (still much smaller than PS4/XBO SoCs, but that's a very different situation).

TL:DR

Each of these numbers are only a single variable in the equation, and we need to know things like CPU configuration, memory bus width, embedded memory pools, number of GPU SMs, etc. to actually fill out the rest of those equations to get the relevant info. Even on the worst end of the spectrum, we're still getting by far the most ambitious portable that Nintendo's ever released, which also doubles as a home console that's noticeably higher performing than Wii U, which is fine by me.



Muy interesante.

Me sigo poniendo en el peor de los casos para no hacerme ilusiones, pero una lectura muy esclarecedora que pone en juego más factores que los meros datos de DF.
1665 respuestas