Joer, menudo debate PSx-N64 ha salido ahora...
Es cierto que en la época se bailó mucho con el rollo de los Mb y los MB, pero en realidad Nintendo no lo hizo mal, ya que siguió midiendo los juegos en la medida en la que se habían medido toda la vida, es decir, Megabits. Al ser cartuchos de memoria embebida en chips, no había motivo para cambiar la medida de Mbits a Mbytes, además de que así pues quedaba más "feo" y menos útil, ya que todos los kits de desarollo y programadores venían con la mente en Mbits.
El MByte se inventó como una forma de simplificar los cálculos matemáticos para capacidades LÓGICAS dentro del ordenador, porque los ficheros se solían dividir en cachitos de "ocho bits", suficiente para representar toda la tabla ascii en los archivos de texto, los más comunes en la época (y casi los únicos), y era más fácil decir "tienes 10mbytes de capacidad", es decir, 10 millones de letras. Hoy en día dividir un archivo en trozos de 1byte no sólo no es necesario sino que es ineficiente ya que los textos pueden necesitar más de 256 caracteres distinto o por el contrario no necesitar más de 128, y no hablemos ya de formatos multimedia, ejecutables, cifrados... cuya división en bloques de 8 no tiene sentido. Físicamente los dispositivos de almacenamiento se dividen en bits físicos, no en bytes (todos, ópticos incluídos).
El MegaByte se tomó incorrectamente como la medida estandar para todo en los sistemas operativos (windows sobre todo) y de ahí la eterna discusión entre las capacidades de los discos duros y memorias y velocidades de internet. Todos sabemos que lo de "20 megas" queda mejor que "2,5 megas restando protocolos ppp, tcp/ip, QoS y distancia a la central", pero no es incorrecto. Si nos ponemos tiquismiquis, engañan los otros calculando en MBytes datos que poco tienen que ver con las letras ascii... pero vamos, a partir de los formatos ópticos, todos se pasaron a la era de los MBytes, Nintendo incluída. La medición correcta de memorias embebidas sigue siendo el Mbit.