› Foros › Retro y descatalogado › Consolas clásicas
GXY escribió:AlterNathan escribió:@GXY Pero lo de cambiar en caliente ya se hace, ¿No? Yo estoy en el core de Megadrive y puedo cambiar al de SNES sin necesidad de resetear la MiSTer. Porque cambiar de juego sería técnicamente cambiar de core pero de otra manera.
Lo digo con toda la ignorancia del mundo claro está xD.
Saludos.
me parece que si reseteas la mister para cambiar de core
lo que cambia en mister (creo) es que se puede reiniciar el FPGA sin reiniciar completamente la maquina (el arm no se apaga y con el es con el que eliges core).
que un usuario confirme.
GXY escribió:yo lo veo ok para integrar mas sistemas, principalmente arcades que se queden fuera de los cores que se vayan desarrollando. el problema de los arcades es que como muchos son de su padre y su madre "en terminos de plataforma" (muchos de ellos no son plataformas homogeneas como un ordenador o una consola), eso dificulta y hace dificilmente abarcable la tarea de que muchos "lleguen a mister".... pero luego los usuarios percibimos "arcades" como una sola "plataforma" (de hecho muchos trasponen "MAME", el multiemulador, como si fuera un "sistema"), lo cual facilita que, por ejemplo, para alguien que viene de tener una raspberry, perciba que "mister tiene pocos juegos de mame" (y seguro que esta burrada que acabo de escribir, alguno ya se la ha encontrado )
_Seagal_ escribió:MAME internamente es un multiemulador. es decir, que "dentro" tiene muchos emuladores diferentes (de diversos procesadores, otros integrados, etc).
implementar eso en FPGA (es decir, que en la FPGA coexistan, a la vez, las implementaciones de muchos procesadores y otros integrados, y que luego en funcion del juego se utilicen unos u otros) necesitaria un procesador con muchas mas de 110mil celdas, o reconfigurarlo cada vez que se ejecuta un juego, lo cual seria mas plausible, pero tampoco se ha hecho nunca (esa configuracion se hace al encender/cargar core y al reiniciar la maquina. no se hace "en caliente").
yo no lo veo como un "port del mame", sino un "mame version fpga" que parece lo mismo pero no. y ya digo... que que yo sepa no se ha hecho nunca. y como minimo necesitaria "reiniciar el sistema cada vez que se cambia el juego" para "cambiar el core" (reconfigurar el FPGA).
creo que no me he explicado bien. Me referia a un port del mame para el arm que tiene la mister, y que se pudieran escoger los procesadores implementados en fpga, del mismo modo que ahora se pueden escoger varias implementaciones en emulacion del mismo procesador (el startscream en asm, el normal en c... ).
Por ejemplo, el out run, utiliza dos 68000, a parte de otras tantas cosas, y sabemos que en el mister hay espacio para esos dos 68000 porque la megadrive con el megacd ya son esos dos procesadores, pues seria el core del system16 del mame rulando todo por soft menos esos dos procesadores que irian por 'hard'.
GXY escribió:Hodor escribió:[...]
yo lo veo ok para integrar mas sistemas, principalmente arcades que se queden fuera de los cores que se vayan desarrollando. el problema de los arcades es que como muchos son de su padre y su madre "en terminos de plataforma" (muchos de ellos no son plataformas homogeneas como un ordenador o una consola), eso dificulta y hace dificilmente abarcable la tarea de que muchos "lleguen a mister".... pero luego los usuarios percibimos "arcades" como una sola "plataforma" (de hecho muchos trasponen "MAME", el multiemulador, como si fuera un "sistema"), lo cual facilita que, por ejemplo, para alguien que viene de tener una raspberry, perciba que "mister tiene pocos juegos de mame" (y seguro que esta burrada que acabo de escribir, alguno ya se la ha encontrado )
_Seagal_ escribió:[...]
creo que no me he explicado bien. Me referia a un port del mame para el arm que tiene la mister, y que se pudieran escoger los procesadores implementados en fpga, del mismo modo que ahora se pueden escoger varias implementaciones en emulacion del mismo procesador (el startscream en asm, el normal en c... ).
Por ejemplo, el out run, utiliza dos 68000, a parte de otras tantas cosas, y sabemos que en el mister hay espacio para esos dos 68000 porque la megadrive con el megacd ya son esos dos procesadores, pues seria el core del system16 del mame rulando todo por soft menos esos dos procesadores que irian por 'hard'.
_Seagal_ escribió:MAME internamente es un multiemulador. es decir, que "dentro" tiene muchos emuladores diferentes (de diversos procesadores, otros integrados, etc).
implementar eso en FPGA (es decir, que en la FPGA coexistan, a la vez, las implementaciones de muchos procesadores y otros integrados, y que luego en funcion del juego se utilicen unos u otros) necesitaria un procesador con muchas mas de 110mil celdas, o reconfigurarlo cada vez que se ejecuta un juego, lo cual seria mas plausible, pero tampoco se ha hecho nunca (esa configuracion se hace al encender/cargar core y al reiniciar la maquina. no se hace "en caliente").
yo no lo veo como un "port del mame", sino un "mame version fpga" que parece lo mismo pero no. y ya digo... que que yo sepa no se ha hecho nunca. y como minimo necesitaria "reiniciar el sistema cada vez que se cambia el juego" para "cambiar el core" (reconfigurar el FPGA).
creo que no me he explicado bien. Me referia a un port del mame para el arm que tiene la mister, y que se pudieran escoger los procesadores implementados en fpga, del mismo modo que ahora se pueden escoger varias implementaciones en emulacion del mismo procesador (el startscream en asm, el normal en c... ).
Por ejemplo, el out run, utiliza dos 68000, a parte de otras tantas cosas, y sabemos que en el mister hay espacio para esos dos 68000 porque la megadrive con el megacd ya son esos dos procesadores, pues seria el core del system16 del mame rulando todo por soft menos esos dos procesadores que irian por 'hard'.
Hodor escribió:Yo esto lo veo un despropósito, sinceramente. Entonces, ¿para qué estamos dando la tabarra día sí y día también sobre la supuesta superioridad tecnológica de las FPGAs frente a la emulación por software si luego seguimos utilizando ésta y encima dentro de una plataforma ARM muy limitada?
vtec16 escribió:Pero ahora mismo creo que ya se está haciendo , es decir que se están utilizando códigos de Mame para complementar los cores ya que hay mucho trabajo de muchos años hecho y facilita la faena , me pareció leer algo de esto en el lanzamiento del contra de jotego aunque si que es cierto que es una primera beta
GXY escribió:Hodor escribió:Yo esto lo veo un despropósito, sinceramente. Entonces, ¿para qué estamos dando la tabarra día sí y día también sobre la supuesta superioridad tecnológica de las FPGAs frente a la emulación por software si luego seguimos utilizando ésta y encima dentro de una plataforma ARM muy limitada?
a lo mejor parte del problema ha sido precisamente ese "exceso de tabarra"
tanto un metodo como otro como los que puedan haber son "simples" herramientas. el objetivo (creo yo) al final, es jugar. (lo mejor posible) y creo que contar con dos herramientas supone una ventaja, no una desventaja.
edit. lo de usar trabajo hecho en emulacion para "adelantar tarea" con la implementacion de cores en FPGA ya dije hace paginas que se hacia. el que se rasgue las vestiduras por ello, allá él.
gynion escribió:Ante la imposibilidad en muchos casos de decapar cada a chip a un tamaño adecuado para analizarlos al 100%, si resulta que se está aprovechando el trabajo en emulación para crear los cores FPGA, eso quiere decir que el trabajo de preservación del hardware comienza y continua desde la emulación, siendo la implementación en FPGA la materialización en físico de ese trabajo.
O sea, que la tecnología FPGA en sí ni es la única ni es la principal que preserva hardware, porque el trabajo de preservación ya lleva décadas haciéndose. Las FPGA vienen para seguir materializando ese trabajo en otro proyecto complementario al de la emulación.
Si resulta que una placa FPGA para implementación tiene capacidad para tirar también de emulación, con buen resultado, no veo por qué no aprovecharlo; al fin y al cabo, se supone que al final será el usuario quien decida si hacer uso de ello o no.
GXY escribió:correcto.
tambien significa que esa implementacion FPGA no se basa en la electronica original, sino en la interpretacion de la misma que se hace en la emulacion, con lo cual es tan fiel como lo sea dicha emulacion.
esto lo digo para que conste y quede claro, teniendo en cuenta ciertos comentarios que he leido en este hilo anteriormente.
gynion escribió:GXY escribió:correcto.
tambien significa que esa implementacion FPGA no se basa en la electronica original, sino en la interpretacion de la misma que se hace en la emulacion, con lo cual es tan fiel como lo sea dicha emulacion.
esto lo digo para que conste y quede claro, teniendo en cuenta ciertos comentarios que he leido en este hilo anteriormente.
Y en el caso de decapar chips fisicamente, es que también se puede trasladar esa información a la emulación; o sea, que todo está vinculado de forma natural, y desvincularlo es lo artificial.
Otra de las ventajas de que Mister pueda usar emuladores opcionalmente es que desde el mismo mismo aparato FPGA se pueden comprobar las supuestas diferencias entre emulación por soft e implementaciones FPGA, para ver si por ejemplo ese input lag o el sonido que dicen es debido al sistema fpga en sí o bien a otras características de la plataforma, de las que también se beneficie la emulación.
cr0nos8797 escribió:simula la antigua psp original?
Hodor escribió:cr0nos8797 escribió:simula la antigua psp original?
No, y probablemente nunca lo haga.
Un saludo.
gynion escribió:@jimi
El asunto de decapar chips lo conozco por Byuu (o Ares, ahora), que publicó un artículo sobre ello, dando indicaciones de cómo sería un escaneo óptimo de los PPU de SNES, creo recordar. Como bien es sabido, él es el dev del BSNES, y a él le interesaba mucho esa información para implementar en su emulador. Si fuera tan y tan diferente, y no estuviera relacionado, ni los cores que se implementan en fpga se basarían en el trabajo que se ha ido realizando todos estos años en emulación, ni por supuesto la Mister le daría soporte directamente a emuladores, porque no podría al ser cosas tan diferentes.
Religión = Filosofía cerrada a un dogma. Me tendrás que explicar dónde está la semejanza religiosa en lo que he dicho, porque creo que de hecho defiendo lo contrario, que haya flexibilidad para lo que cada uno quiera hacer, y en ello incluyo a los desarrolladores oficiales o no de Mister.
¿Quién se está currando esos emuladores o cores fpga? pues el que se los curre que haga lo que quiera. En tu caso, simplemente te parece mal que no se centren en cores fpga, mientras que en el mio me parece bien que hagan lo que quieran, teniendo en cuenta la situación actual. Si la Mister ya hace cosas impresionantes por fpga no deberías tener prisa. Si yo fuera usuario de Mister, con Neo-geo ya me daría con un canto en los dientes (y de hecho por eso sigo el hilo, no por otra cosa).
cr0nos8797 escribió:Hodor escribió:cr0nos8797 escribió:simula la antigua psp original?
No, y probablemente nunca lo haga.
Un saludo.
Gracias por la info! es una pena.
Hay algún sistema de simulación por hardware? o solo hay emuladores por software? es solo por curiosidad!
le tenía mucho cariño a esa consola
KKnot escribió:[...]
Yo con lo que estoy encantado con la Mister es con el sonido del core de Amiga... Es brutal como suena en unos buenos altavoces o cascos
jimi escribió:Te estoy explicando que la implementacion en HDL como en las FPGAs y la implementacion en software de los emuladores no tienen absolutamente nada que ver, ni una sola linea de codigo se va a compartir o servir de uno al otro. Lo que se comparte y es lo interesante es toda la documentacion de como funcionan los sistemas.
Si se decapa un chip o se consigue documentacion de como esta hecho internamente (o se deduce como podria estar por como funciona externamente), esa informacion es la importante. No importa el como se programe en software un emulador para simular ese sistema.
Usar recursos en mantener unos emuladores por software en vez de aprovecharlos en mantener y desarrollar los cores FPGA es un atraso, y mas cuando desarrolladores software hay a patadas y desarrolladores FPGA hay muy muy pocos. Es una mala optimizacion de los recursos humanos de que se dispone se mire por donde se mire.
Como ya dije el que quiera emuladores que los meta, que desarrolladores por software capaces para ello seguro que hay a patadas, pero no le pidamos a los pocos que hay FPGA que pierdan su valioso tiempo en esas cosas. Y no es solo retrasarles el desarrollo de cores (que es lo de menos), es que esos tios van a llegar a un punto que se van hartar y mas si les exigimos aun mas trabajo y de mantenimiento (que es ademas lo menos interesante). Y el dia que se harten a ver cuantos aparecen con el conocimiento necesario y las ganas para tomar el relevo...
Es que teneis montones de proyectos de emuladores y montones de sistemas mucho mas baratos, mas potentes, y con muchisimo mas soporte detras si los quereis. No veo esa necesidad de meter emuladores o media centers en un sistema mas caro, menos potente (a nivel de procesador, memoria, etc) y con infinitamente peor soporte... si alguien me lo explica pues bienvenido sea, porque yo no lo entiendo.
jimi escribió:Me parece bien que se usen implementaciones basadas en los descubrimientos de la comunidad en algunos chips de los que aun no se tiene documentacion oficial o decapado del chip ya que al final es como tener el hardware original con ese chip distinto en su implementacion pero que usa el mismo interface con el sistema y es compatible (o no al 100% aun). En el momento que se haga un decapado pues se sustituye por la implementacion real y listo, pero mientras no hay otra opcion mejor pues es una solucion valida.
gynion escribió:jimi escribió:Te estoy explicando que la implementacion en HDL como en las FPGAs y la implementacion en software de los emuladores no tienen absolutamente nada que ver, ni una sola linea de codigo se va a compartir o servir de uno al otro. Lo que se comparte y es lo interesante es toda la documentacion de como funcionan los sistemas.
Si se decapa un chip o se consigue documentacion de como esta hecho internamente (o se deduce como podria estar por como funciona externamente), esa informacion es la importante. No importa el como se programe en software un emulador para simular ese sistema.
Usar recursos en mantener unos emuladores por software en vez de aprovecharlos en mantener y desarrollar los cores FPGA es un atraso, y mas cuando desarrolladores software hay a patadas y desarrolladores FPGA hay muy muy pocos. Es una mala optimizacion de los recursos humanos de que se dispone se mire por donde se mire.
Como ya dije el que quiera emuladores que los meta, que desarrolladores por software capaces para ello seguro que hay a patadas, pero no le pidamos a los pocos que hay FPGA que pierdan su valioso tiempo en esas cosas. Y no es solo retrasarles el desarrollo de cores (que es lo de menos), es que esos tios van a llegar a un punto que se van hartar y mas si les exigimos aun mas trabajo y de mantenimiento (que es ademas lo menos interesante). Y el dia que se harten a ver cuantos aparecen con el conocimiento necesario y las ganas para tomar el relevo...
Es que teneis montones de proyectos de emuladores y montones de sistemas mucho mas baratos, mas potentes, y con muchisimo mas soporte detras si los quereis. No veo esa necesidad de meter emuladores o media centers en un sistema mas caro, menos potente (a nivel de procesador, memoria, etc) y con infinitamente peor soporte... si alguien me lo explica pues bienvenido sea, porque yo no lo entiendo.
Vamos a ver... ¿Cómo va a ser una mala optimización de los recursos humanos hacer eso? En todo caso, sería un mal uso si tú fueras uno de los programadores, y el proyecto Mister te obligase a portar emuladores a Mister cuando tú lo que quieres es desarrollar más cores FPGA; pero no me parece que sea esa la situación. Me imagino que la documentación, que es lo importante, estará perfectamente preservada, y creo que tenemos la eternidad para ir mejorando sin prisas, con cada dev haciendo lo que quiera.
Si yo tuviera la Mister, y fuera tan buena, completa y perfecta como se dice, realmente no me preocuparía mucho por los experimentos o proyectos que quieran llevar a cabo los desarrolladores; a no ser que yo considerase que hubiera mucho que perfeccionar. Lo pintas como si tuvieras mucha prisa o necesidad, cuando insisto, se supone que se tiene Neo-Geo, CPS1 y muchos sistemas inferiores a pleno rendimiento.
Sobre lo de que no comparten lineas de código, y tener que determinar por ello que son cosas diferentes, honestamente no sé que pensar, porque creo que se puede dar el caso de que dos programas de software no compartan ni una sola linea de código, pero que hagan exactamente lo mismo y a los mismos tiempos. Igualmente, diría que se puede dar el mismo caso al programar chips.
En todo caso, se implemente como se implemente cada información en cada medio, quiero decir algo respecto a este punto, que me indicabas antes:jimi escribió:Me parece bien que se usen implementaciones basadas en los descubrimientos de la comunidad en algunos chips de los que aun no se tiene documentacion oficial o decapado del chip ya que al final es como tener el hardware original con ese chip distinto en su implementacion pero que usa el mismo interface con el sistema y es compatible (o no al 100% aun). En el momento que se haga un decapado pues se sustituye por la implementacion real y listo, pero mientras no hay otra opcion mejor pues es una solucion valida.
Por un lado dices que portar emuladores de forma experimental o práctica al ARM supone mal-optimizar recursos humanos, mientras por otra parte das el visto bueno a portar cores a fpga a ciegas, por falta de pan (aka: datos precisos sobre cada chip).
Bajo mi punto de vista, si realmente quieres ser tan estricto y preciso con el proyecto, lo primero que tienes que esperar es que se desarrollen cores únicamente basados en información fiel, fruto de esquemas oficiales o de documentos sobres los chips a implementar, o bien extrayendo la información mediante la disección física de cada uno, y que tampoco se malgasten esos recursos humanos desarrollando cores fgpa con la carencia de esa información.
Lo que estás diciendo ahí es literalmente que te vale una implementación imprecisa a falta de la precisa, con tal que de que funcione por FPGA.
Sobre lo que dices en el último párrafo de ahora, no olvides que esto no lo hacen porque yo lo pida y/o lo necesite para pillarme una Mister; es más, ni se me había ocurrido, y a mí me valdría la Mister sin ello. Estas son cosas que salen únicamente desde dentro del proyecto, siendo idea de los desarrolladores, y dudo mucho que actúen en base a lo que yo quiera (además, ni lo he pedido).
¿Que me reconforta ver como los emuladores os invaden? Pues ciertamente sí, me hace gracia, por la fobia que le tienen algunos, más que nada, y porque confirma más o menos mi punto de vista. También me parece algo interesante para hacer pruebas, y comprobar posibles diferencias entre emulación y FPGA en la misma máquina. Pero de ahí a necesitar una Mister para hacer el trabajo de un Rpi a medias... ya te digo desde ya que no.
DJ Deu escribió:@gynion
La mayoría de los que reniegan de la emulación son gente que basa su experiencia de emulación en raspberry's Pi o Vetustos Pentiums 4 que tienen en un arcade con emuladores funcionando en DOS.
jimi escribió:Son cosas totalmente distintas, los emuladores que conocemos son una serie de instrucciones que se ejecutan sobre un procesador punto, se pueden usar lenguajes de programacion de bajo o alto nivel (tienes emuladores hechos en javascript incluso) o en ensamblador pero al final es codigo maquina que va a ejecutar un procesador de una plataforma concreata y que no tiene absolutamente nada que ver con el sistema o plataforma que intenta emular.
En una FPGA se diseña un hardware usando HDL (bien sea VHDL, bien sea Verilog HDL o bien sea SystemVerilog), HDL no es un lenguaje de programacion, es un lenguage de descripcion de hardware. No se le dice al procesador de turno que tiene que hacer, simplemente se describe el hardware en cuestion.
Es muchisimo mas complicado hacer un emulador de un sistema, lleva muchisimo mas tiempo y se necesitan monton de recursos y jamas se va a comportar exactamente como el sistema que quieres implementar. Al fin y al cabo con un emulador estas intentando que un sistema se comporte como otro sistema totalmente diferente, es algo sumamente complicado y que lleva muchisimo tiempo y trabajo.
De hecho solo tienes que mirar cualquier emulador de sistemas de 8 y 16 bits y como despues de llevar 20 años de desarrollo con montones de devs aun a dia de hoy son bastante mediocres comparados al sistema real y requieren procesadores cientos de veces mas potentes que el sistema que quieren emular. Mientras en cuestion de meses estan sacando sistemas en la FPGA implementados usando HDL que se comportan como el sistema original y encima hechos por 1 sola persona.
jimi escribió:Y no se explicame donde los desarrolladores de FPGA han dicho que quieren meter emuladores en la MiSTer... los que lo estan pidiendo solo son algunos pocos usuarios, de hecho estan pidiendo que se lo hagan a los devs de la MiSTer (que manda narices vamos), que lo hagan ellos si quieren. De hecho recuerdo en el antiguo foro de mister como algunos postearon pidiendolo y sorgelig posteo que no iba a perder el tiempo en eso. Asi que no se de donde sacas que ellos son los que quieren dedicarse a meter los emuladores (que si quisieran estan en su derecho de hacerlo por supuesto).
Yo creo que la gente que llora para que le pongan emuladores en la mister lo hace por desconocimiento. Nadie les impide meterlos si quieren...
jimi escribió:Si no conoces el interior de un chip de un sistema (compuesto por infinidad de chips), puedes intentar hacer ingenieria inversa (que es lo que se hizo toda la vida) y ver como se comporta externamente, de hecho puedes llegar a hacer una implementacion de ese chip en FPGA totalmente compatible con el original y por dentro estar implementando de otra manera distinta. Cuales son las pegas de hacer eso, pues que pueden facilmente aparecer bugs que no habia en el original o que algunos que habia en el original no aparezcan en el nuevo.
Que si tuvieramos las especificaciones concretas del chip aun sin saber su implementacion concreta se podria hacer un chip 100% compatible con el original, que podrias reemplazarlo por los originales en una consola real y no se notaria la diferencia. De hecho muchos sistemas originales tienen revisiones de chips implementados de diferente manera pero que hacen el mismo trabajo .
jimi escribió:Yo no se que problema le ves a que se creen chips compatibles aunque no sean al 100% mientras no se consiga la documentacion del chip oficial (dificil) o se decape el chip (mas plausible pero lleva tiempo y dinero). Por algun sitio se empieza. Lo curioso es que aun sin tener documentacion perfecta de todo el sistema se va a implementar en FPGA muchisimo mas rapido y va a funcionar de manera estable, sin que haya el minimo retraso porque un proceso del sistema necesita del procesador en ese momento o porque hay que tener acceso a 3 buses de datos al mismo tiempo o hay que hacerlo coincidir con el timing del back porch, front porch, etc .
Es que los que piden los emuladores en la MiSTer son curiosamente los que jamas han probado una FPGA... no entiendo vuestra fijacion con que metan algo en un sistema que ni teneis ni os planteais tener porque estais muy contentos con los emuladores en los miles de sistemas disponibles. No le veo ningun sentido.
DJ Deu escribió:@jimi
Lo de la emulación no lo decía por ti, lo decía referido a que usualmente quienes más se quejan de ella, suelen ser los que emulan en entornos poco optimos.
Emulando en las condiciones que expongo antes, comparado con una MiSTer es obvio que les parezca lo mejor, pero no es una opinión muy válida.
jimi escribió:
No se de donde sacas que ha llevado 30 años implementar neogeo en FPGA... una cosa es que la neogeo saliese hace 30 años y hace poco que han realizado una implementacion en FPGA, pero implementarla en FPGA a furrkek le llevo pocos meses y la primera version que saco ya corria todos los juegos de puta madre .
Hodor escribió:Verás, las FPGAs tienen una capacidad máxima que limita la cantidad y complejidad de la electrónica que pretende simular/replicar. Es decir, en el caso concreto de la Mister una consola relativamente compleja como la PSP original muy probablemente no quepa. Algo bastante complejo como la Sega Dreamcast o la Playstation 2 definitivamente no entra.
Y luego conviene tener en cuenta que, aparte de lo anterior, alguien debe de programar y desarrollar esa adaptación. Puede ocurrir que por su complejidad nadie quiera/sepa abordarla, o por simple falta de interés.
Un saludo.
Shikamaru escribió:jimi escribió:
No se de donde sacas que ha llevado 30 años implementar neogeo en FPGA... una cosa es que la neogeo saliese hace 30 años y hace poco que han realizado una implementacion en FPGA, pero implementarla en FPGA a furrkek le llevo pocos meses y la primera version que saco ya corria todos los juegos de puta madre .
A Furrtek le llevo poco tiempo hacer la implementación porque lleva años decapando los chips de la NeoGeo y creando versiones libres en VHDL para poder reparar placas dañadas.
Cuando se quiso dar cuenta tenía una NeoGeo en código, pero eso fue lo que tardo unos meses (gracias a la ayuda de otros desarrolladores que le guiaron en el proceso de creación del core).
El resto de implementaciones "rápidas" vienen de trasladar la implementación de Mame y es ahora cuando se está poniendo de moda el decapar y convertir, pero por desgracia casi todo lo que tenemos son implementaciones hardware muy muy cercanas a la placa real pero que todavía no se comportan como la placa real, al no tener implementados total o correctamente todos los componentes.
Sobre el argumento de que el desarrollador que mete el emulador no se centra en el core FPGA, os diré que el que mete el emulador no iba a hacer el core, y el que hace el core no deja de hacerlo porque haya un emulador. Pero el argumento de "para eso poned al lado una raspberry" lo podemos aplicar a todo, y así acabamos de un plumazo con la scene del mundo de las consolas. Y a tomar por culo, ¿no?
jimi escribió:Shikamaru escribió:jimi escribió:
No se de donde sacas que ha llevado 30 años implementar neogeo en FPGA... una cosa es que la neogeo saliese hace 30 años y hace poco que han realizado una implementacion en FPGA, pero implementarla en FPGA a furrkek le llevo pocos meses y la primera version que saco ya corria todos los juegos de puta madre .
A Furrtek le llevo poco tiempo hacer la implementación porque lleva años decapando los chips de la NeoGeo y creando versiones libres en VHDL para poder reparar placas dañadas.
Cuando se quiso dar cuenta tenía una NeoGeo en código, pero eso fue lo que tardo unos meses (gracias a la ayuda de otros desarrolladores que le guiaron en el proceso de creación del core).
El resto de implementaciones "rápidas" vienen de trasladar la implementación de Mame y es ahora cuando se está poniendo de moda el decapar y convertir, pero por desgracia casi todo lo que tenemos son implementaciones hardware muy muy cercanas a la placa real pero que todavía no se comportan como la placa real, al no tener implementados total o correctamente todos los componentes.
Sobre el argumento de que el desarrollador que mete el emulador no se centra en el core FPGA, os diré que el que mete el emulador no iba a hacer el core, y el que hace el core no deja de hacerlo porque haya un emulador. Pero el argumento de "para eso poned al lado una raspberry" lo podemos aplicar a todo, y así acabamos de un plumazo con la scene del mundo de las consolas. Y a tomar por culo, ¿no?
No trasladaron la implemantacion de mame a FPGA porque son 2 cosas totalmente distintas y que no tienen absolutamente nada que ver. Lo unico que utilizaron son los conocimientos y documentacion que se fue recopilando durante este tiempo y que se utilizaria en mame y seguramente en mas emuladores, como tambien para hacer wikis...
Obviamente que furrtek tardo mas tiempo en decapar los chips y analizar los circuitos internos para saber como funcionan y documentarlos, eso es lo que mas tiempo lleva con diferencia. Pero desde que tienes la documentacion del sistema, implementarlo en FPGA es cuestion de pocos meses (y eso contando lo que lleva adaptarlo al framework especifico de MiSTer con el que no tendria ninguna experiencia previa).
Pero ahora buscame a alguien que te hace un emulador de neogeo de 0 disponiendo de esa documentacion y que funcione decentemente en cuestion de meses...
Y eso que por cada persona que tenga experiencia en HDL vas a encontrar seguramente a miles de personas con experiencia en desarrollo software .
Por eso el precio y capacidades de las actuales FPGA nos dan una posibilidad que no disponiamos años atras para implementaciones de sistemas desarrolladas infinitamente mas rapido y que se van a comportar como el sistema original siempre que se disponga de la documentacion necesaria. En cambio hacerlo con emuladores es muchisimo mas complejo y es muy muy dificil que se comporte exactamente como el sistema original y aun mas dificil el que en todo momento se comporte como el sistema original.
Y ademas el sistema FPGA en todo momento se va a comportar como debe, jamas vas a tener un frameskip (si es que el sistema original no lo tenia obviamente, si el original los tenia los vas a tener y exactamente los mismos y en los mismos sitios ).
Y encima consumiendo muy poca energia electrica y siendo compatibles con multitud de perifericos a diferencia del sistema original .
@cr0nos8797 Visualmente si el emulador lleva suficientes años de desarrollo y con gente medianamente competente deberia verse exactamente igual (eso no libra que pueda aparecer algun bug visual puntual en algun juego, o que no apareza a diferencia del sistema original). Donde mas se nota es en los timings ya que es lo mas complicado de emular por software y sobretodo en el sonido.
jimi escribió:@Shikamaru Y donde he dicho que tenga que ser 100% fiel por ser implementado en FPGA? (si puedes citamelo, no me gustan que pongan cosas en mi boca que no he dicho). He dicho claramente que teniendo la documentacion y sabiendo como funcionan los sistemas la implementacion FPGA se hace muchisimo mas rapido y facil y ademas sera 100% fiel en ese caso. Mientras que aun teniendo la documentacion y sabiendo perfectamente como funciona todo, hacer un emulador es una tarea infinitamente mas compleja, lleva muchisimo mas tiempo y es muy complicado que sea mas o menos fiel.
ziu escribió:Y señores emular retro con un i7 o i9 es matar moscas a cañonazos, todo para llegar a los niveles de precisión de una fpga que te puede costar 90 euros como la sidi.
AlterNathan escribió:@gynion Pero el consumo de un I7 o I9 es muchísimo mayor que el de la MiSTer, tenemos que comprobar todas las variables y ver si nos compensa o no.
Saludos.
gynion escribió:Es que no hay opción en la lado FPGA si quieres Dreamcast, por ejemplo. Incluso una Rpi4 te puede valer, o muchos sistemas inferiores a un i7, de menor consumo.
ziu escribió:Yo creo que tbn hay que separar fidelidad, con calidad imagen y sonora.
Para que en ordenador un emulador llegue a los niveles de lag, filtros sonoros, sincronismo etc de una fpga,necesitas un maquina muy potente (runahead, y demas...)
Y señores emular retro con un i7 o i9 es matar moscas a cañonazos, todo para llegar a los niveles de precisión de una fpga que te puede costar 90 euros como la sidi.
ziu escribió:A mi sinceramente se me han quitado las ganas de jugar a cualquier emulador de 32bits para arriba,
Mucha gente que se ha pasado a fpga y que habla del sentir coinciden q con emuladores no sienten nada,como sin Alma, no creo que sea efecto placebo, es una realidad,
Jotego lo comparó con hablar con una persona real o con un loro que pronuncia mejor incluso que la persona, con fpga te está llegando las impresiones del hardware real ya que internamente funciona de forma parecida, con emulador es imitación, como el ejemplo del loro que repite sin saber que significa lo que dice...