› Foros › Nintendo 3DS › General
Blue escribió:Estais confundiendo la frecuencia de la pantalla con el framerate.
El framerate es la frecuencia de generación de frames. Se mide en FPS: frames por segundo.
La 3DS tiene un ciclo de cpu a 60 Hz, quiere decir que ejecuta 60 ciclos en 1 segundo. En cada ciclo, genera 2 frames. Por lo tanto, 60x2= 120 fps.
Sin embargo, los frames se muestran de 2 en 2. al mostrarse a la vez, el refresco de pantalla sigue siendo el mismo: 60 Hz.
La frecuencia de CPU, de refresco de pantalla y de generación de frame es independiente, aunque deban estar en cierto modo sincronizadas.
Por ejemplo, la pantalla siempre va a emitir a 60 Hz, aunque la frecuencia de generación de frames sea a 30 fps. Al no refrescarse la imagen, reproducirá dos veces la misma imagen.
El ciclo de cpu tampoco tiene por qué ser el mismo que el de generación de frames. Por ejemplo, si tenemos un juego a 60 Hz y pasase a 30Hz, veríamos como el juego se ejecuta a la mitad de velocidad, ralentizado. Es lo que sucede cuando el tiempo de procesamiento de un ciclo del juego es superior a la frecuencia, lo que supone una ralentización de la aplicación.
Sin embargo existe el frameskip o salto de frames. Una de las cosas que más tiempo consume es la generación de frames. Cuando hay problemas de tiempo, lo que se suele hacer es saltarse una generación de frame y utilizar ese tiempo ahorrado para procesar lo que quede. Por eso cuando un juego cuando dice que va a 53 fps en lugar de a 60 quiere decir que en ese segundo, ha tenido que saltarse la generación de 7 frames para que el juego se ejecute en frecuencia constante a 60 Hz. Esto hace que el juego vaya siempre a velocidad constante, aunque la imagen pegue tirones.
Para solucionar este problema, especialmente en consolas (ya que cada PC es diferente y entonces es muy dificil controlar las frecuencias, mientras que en consola la velocidad es la misma en todas) se opta por bajar el juego a una velocidad constante. Suele ser 30 debido a la sincronización con las pantallas a 60Hz. De esta manera se usan dos ciclos de cpu para generar un solo ciclo de juego. De esta manera evitamos los tirones, haciendo que tanto el proceso de juego como el refresco de pantalla sean, aunque lentos, constantes, por lo que los tirones no se perciben /no son molestos.
Por lo tanto, hay que tener en cuenta esto:
- La 3DS tiene un ciclo de cpu de 60 Hz.
- La 3DS tiene un refresco de pantalla a 60 Hz.
- La 3DS tiene un framerate de 120 fps en 3D y 60 fps en 2D.
- Los juegos que aprovechan la capacidad al máximo, al pasar a 3D, por carecer de recursos se recorta el framerate 3D a 60 Hz y el refresco de pantalla a 30 Hz. El ciclo de CPU sigue siendo de 60 Hz y el de juego, depende de como se programe, también a 60 Hz.
nanoxxl escribió:Carlos A. escribió:nanoxxl escribió:yo puedo ver una pelicula en un monitor y navegar en el otro , eso no son dos imagenes distintas
Veamos, si, son dos imágenes distintas pero por decirlo fácil y rápido las podrías combinar en una sola, ¿cierto? Imagina pegar las dos pantallas, tendríamos una imagen 2D (con un viaje de pixeles, pero 2D).
Cuanto tú quieres hacer el efecto 3D si que tienen que ser dos imágenes diferentes pero, como entenderás, no pueden ser cualquiera: tienen que venir de la misma representación de una realidad 3D pero entre ambas tiene que haber una diferencia de distancia en el eje de abscisas. Eso implica unos costes computacionales que cuando tú quieres representar la reproducción de una película y el navegador en pantallas diferentes no existen, es más, con tu PC actual seguro que puedes abrir cinco navegadores y siete películas simultáneamente que no se cosca, ahora intenta que de un mundo 3D te saque 5-6 perspectivas diferentes de forma dinámica... (piensa en cuantos juegos no puedes poner con una sola perspectiva en una resolución determinada).
Espero que me hayas entendido , y si no pues dilo, intentaré ser más explicativo.
Un saludo.
pero que diceas para que quiero combinarlas , lo que dije es que un pc con una grafica se puede conectar dos monitores y tener dos imagenes distinta ( no hace falta dos gpu para crear dos imagenes distintas ) ,
lo de ( con tu PC actual seguro que puedes abrir cinco navegadores y siete películas simultáneamente que no se cosca ) en tu pc puedes conectar 12 monitores , en el mio no asin que no puedo hacer lo que dices
creo que no as entendido mi comentario anterior
Carlos A. escribió:Creo que él que lo no lo entiendes eres tú . Tú no puedes conectar 12 monitores porque principalmente no tienes 12 salidas de vídeo, y aunque los tuvieses, no creo que nadie en su sano juicio ponga tantas pantallas.
Tú confundes el representar una imagen y el generarla. Puedes coger un vídeo FullHD y el PC lo único que tendrá que hacer es "pintar" de colorines la pantalla, es decir, lee del fichero donde está el vídeo y simplemente vuelca la imagen. En cambio si tiene que resolver una integral aunque esta sea muy fácil y cortita le va a llevar un tiempo porque hay un procesado de por medio. No es lo mismo leer un fichero que tenga el dibujo de un circulo que generar un circulo.
Cuando te digo lo de combinar, que no nos entedemos, me refiero a que si existiese una pantalla que fuese la suma de tus dos pantallas, ¿a que no habría problema de hacer lo mismo? Pero como te dije, ¿cuantos juegos hay que no te funcionan a una determinada resolución y con una sola perspectiva? ¿Donde radica la diferencia en tener dos FullHD abiertos y un juego potente? Fácil: en los cálculos, como hablábamos antes, mientras uno no tiene que calcular nada apenas el otro es una constante de cálculos muchos de ellos con decimales, y te aseguro que dentro de un PC es lo más carito que se despacha (el cálculo con decimales).
De todos modos, hay que tener en cuenta que existen juegos en los que no existe ese punto focal. Juegos como los simuladores de vuelo, donde la acción no transcurre solo en el centro. O Por ejemplo juegos como Frets on Fire, donde si jugamos a dobles cada guitarra saldrá en un monitor diferente.
Carlos A. escribió:Pues ahora imagínate que en ese juego que tu no puedes tuviesen que sacar entre la CPU y la GPU que tienes una imagen para cada pantalla cuya diferencia reside en que en la pantalla de la derecha es la misma imagen pero desplazada unos centímetros a la derecha. ¿Podrá? No puede verdad, ya que si no puede con una mucho menos con dos.
Carlos A. escribió:Espero que ahora si hayas comprendido la diferencia entre sacar algo por la pantalla y la generación de esa imagen, que a veces es trivial y otras conlleva costes altos .
Un saludo.
ahora intenta que de un mundo 3D te saque 5-6 perspectivas diferentes de forma dinámica
nanoxxl escribió:...
Blue escribió:Quitando el tema del compañero, lo que nintendo tendría que haber hecho es crear una gpu que genere un doble render automáticamente. Eso sería lo suyo ya que en realidad el efecto 3D no es más que un ligero movimiento a la derecha de la cámara. Si se hiciese correctamente, se podría hacer todo de un solo render, leyendo una sola vez los datos (ya que a diferencia de las imágenes para dos jugadores la escena es en realidad la misma ligeramente movida. Los recálculos para determinar que se tiene que pintar y que no son mínimos y se ahorraría mucho tiempo y batería mediante una gpu que renderice ella sola las dos frames conforme a una sola información. Sin embargo a nintendo le ha dado por duplicar. Duplica la información (cosa que no solo conlleva mucho esfuerzo para la máquina si no un gran consumo de batería) y luego renderiza por separado, cosa que conlleva calcular dos veces las mismas cosas, nuevamente chupando más batería y recursos.
Quizás es la limitación tecnológica lo que impide hacerlo, pero vamos, que el sistema que han creado es un poco chapucilla.
No se, es como si tenemos que resolver una ecuación complejísima que ocupa toda la pizarra, una con A=0 y otra con A=1, y en lugar de coger y poner a dos alumnos en dos mesas de la misma clase para que cada uno resuelva la ecuación con un valor, ponen a cada uno en una clase separada y a otro que mira la ecuación en la primera clase y se va a la segunda a escribirla en la pizarra.
Paco20011 escribió:Blue escribió:Quitando el tema del compañero, lo que nintendo tendría que haber hecho es crear una gpu que genere un doble render automáticamente. Eso sería lo suyo ya que en realidad el efecto 3D no es más que un ligero movimiento a la derecha de la cámara. Si se hiciese correctamente, se podría hacer todo de un solo render, leyendo una sola vez los datos (ya que a diferencia de las imágenes para dos jugadores la escena es en realidad la misma ligeramente movida. Los recálculos para determinar que se tiene que pintar y que no son mínimos y se ahorraría mucho tiempo y batería mediante una gpu que renderice ella sola las dos frames conforme a una sola información. Sin embargo a nintendo le ha dado por duplicar. Duplica la información (cosa que no solo conlleva mucho esfuerzo para la máquina si no un gran consumo de batería) y luego renderiza por separado, cosa que conlleva calcular dos veces las mismas cosas, nuevamente chupando más batería y recursos.
Quizás es la limitación tecnológica lo que impide hacerlo, pero vamos, que el sistema que han creado es un poco chapucilla.
No se, es como si tenemos que resolver una ecuación complejísima que ocupa toda la pizarra, una con A=0 y otra con A=1, y en lugar de coger y poner a dos alumnos en dos mesas de la misma clase para que cada uno resuelva la ecuación con un valor, ponen a cada uno en una clase separada y a otro que mira la ecuación en la primera clase y se va a la segunda a escribirla en la pizarra.
Yo no lo sé, pero a lo mejor no es tan fácil como pones tú. Renderizar la misma escena desde otro punto de vista diferente (aunque sea un par de centímetros a un lado) no es coger un render previo y mover la cámara. Hay que hacer todos los cálculos de luces, sombras, perspectivas, ángulos de visión de modelos, etc... algunos cálculos o infomación no tendrás que volver a cargarla ni calcularla, pero no lo veo tan trivial, por mucho que sea un simple movimiento de cámara a la derecha.
Si fuera así entonces por qué los juegos necesitan tantos recursos, si entre un frame y otro lo único que ocurre en un juego normalmente es que la cámara se mueve unos milímetros.
No lo veo tan sencillo, y muy atrevido decir que es una chapuza cuando no se sabe la realidad técnica ni las dificultades que implica.
Paco20011 escribió:Yo no lo sé, pero a lo mejor no es tan fácil como pones tú. Renderizar la misma escena desde otro punto de vista diferente (aunque sea un par de centímetros a un lado) no es coger un render previo y mover la cámara. Hay que hacer todos los cálculos de luces, sombras, perspectivas, ángulos de visión de modelos, etc... algunos cálculos o infomación no tendrás que volver a cargarla ni calcularla, pero no lo veo tan trivial, por mucho que sea un simple movimiento de cámara a la derecha.
Si fuera así entonces por qué los juegos necesitan tantos recursos, si entre un frame y otro lo único que ocurre en un juego normalmente es que la cámara se mueve unos milímetros.
No lo veo tan sencillo, y muy atrevido decir que es una chapuza cuando no se sabe la realidad técnica ni las dificultades que implica.
Blue escribió:No digo que sea tan fácil, pero si que es mucho menos costoso. Por ejemplo, un polígono en un juego tiene la misma textura en ambas imágenes. Tiene la misma matriz de transformación porque en ambas imágenes va a tener las mismas proporciones. Lo que va a cambiar va a ser básicamente la matriz de translación. Si hubiesen invertido pasta podrían haber hecho algún tipo de targeta que te generase dos imágenes cambiando únicamente lo cambiable. Calculas todo lo necesario para dibujar ese triángulo,y una vez lo tienes le aplicas la matriz de translación y pintas, transformación, pintar.
Como está hecho ahora vuelve a calcular automáticamente todo. Aunque en el método de arriba te ahorres un 20% del procesado, ya es un 20%. A eso súmale lo que se pierde duplicando información, súmale lo que se pierde leyendo dos veces los mismos datos, súmale lo cargado que estarán los buses por esto y el proceso de fondo que copia automáticamente todo lo que hay en una memoria para pasarlo a la otra y revisa la integridad de esos datos si se hace.
Ya digo, no se si hay limitación tecnológica al respecto y es posible que sea imposible duplicar la información automáticamente en dos canales, pero si no es así, símplemente han tirado por el camino fácil y han hecho una especie de "dos consolas en una" cuando es posible que haber creado un chip dedicado al 3D hubiese sido muchísimo mejor.
Paco20011 escribió:nanoxxl, para mí el camino fácil habría sido meter 1 sola gpu y a tomar pol culo, si le metes el doble desde luego no creo que sea nada sencillo hacer funcionar eso, de forma sincronizada etc...
lestar escribió:dudo que nintendo haya querido duplicar porque sí todo, tendran sus motivos, y vamos, es nintendo sabran lo que hacen y si hicieron eso seria quiza para obtener el 3d que deseaban al menor coste
Natsu escribió:lestar escribió:dudo que nintendo haya querido duplicar porque sí todo, tendran sus motivos, y vamos, es nintendo sabran lo que hacen y si hicieron eso seria quiza para obtener el 3d que deseaban al menor coste
El quid de la cuestión es el dinero, si Nintendo a preferido duplicar componentes en lugar de montar otros más potentes para realizar la misma tarea, es simple y llanamente una cuestión de dinero, no hay más vuelta de hoja.
Carlos A. escribió:Veamos, en mi humilde opinión y en base a mi conocimiento creo saber el porqué Nintendo ha puesto dos procesadores gráficos en vez de uno.
Lo principal que debemos de entender es que la suma de los rendimientos de dos procesadores no es dos veces la de uno y que generalmente el duplicar la potencia de un procesador suele ser bastante más caro que el doble del precio del procesador original.
En la mayoría de nuestros PCs por lo general tenemos más de un núcleo y no dos procesadores, ¿cierto? Las razones son varias, pero lo básico es que en los multinúcleos los recursos están compartidos (más barato) y en los multiprocesadores son independientes (más caro). Esto hace que un sistema multiprocesador sea más rápido que uno multinucleo debido a que una vez que se está ejecutando algo en el procesador este proceso es independiente al otro, aunque por lo general se busca el multiprocesamiento para hacer aplicaciones multihilo. Las aplicaciones multihilo son aquellas donde hay un procesador maestro que va largando trabajo a otros que se llaman esclavos, pero este modelo de programación no funciona bien en muchos casos debido a la dependencia de datos que hay en una aplicación cualquiera, además de la complejidad que conlleva para un programador hacer esto de forma medianamente óptima.
La cosa está en que el marco de Nintendo es sencillo: tenemos un mundo tridimensional y de ahí tengo que sacar dos imágenes bidimensionales, por lo que como cada una es independiente a la otra en escritura (solo tienen que leer) no va a haber conflictos y la velocidad se dispara.
En definitiva, como arquitectura es muy buena, ya que en este caso si se puede hacer una ejecución multihilo y totalmente concurrente al no haber dependencias entre los procesadores.
Un saludo.
Carlos A. escribió:Veamos, en mi humilde opinión y en base a mi conocimiento creo saber el porqué Nintendo ha puesto dos procesadores gráficos en vez de uno.
Lo principal que debemos de entender es que la suma de los rendimientos de dos procesadores no es dos veces la de uno y que generalmente el duplicar la potencia de un procesador suele ser bastante más caro que el doble del precio del procesador original.
En la mayoría de nuestros PCs por lo general tenemos más de un núcleo y no dos procesadores, ¿cierto? Las razones son varias, pero lo básico es que en los multinúcleos los recursos están compartidos (más barato) y en los multiprocesadores son independientes (más caro). Esto hace que un sistema multiprocesador sea más rápido que uno multinucleo debido a que una vez que se está ejecutando algo en el procesador este proceso es independiente al otro, aunque por lo general se busca el multiprocesamiento para hacer aplicaciones multihilo. Las aplicaciones multihilo son aquellas donde hay un procesador maestro que va largando trabajo a otros que se llaman esclavos, pero este modelo de programación no funciona bien en muchos casos debido a la dependencia de datos que hay en una aplicación cualquiera, además de la complejidad que conlleva para un programador hacer esto de forma medianamente óptima.
La cosa está en que el marco de Nintendo es sencillo: tenemos un mundo tridimensional y de ahí tengo que sacar dos imágenes bidimensionales, por lo que como cada una es independiente a la otra en escritura (solo tienen que leer) no va a haber conflictos y la velocidad se dispara.
En definitiva, como arquitectura es muy buena, ya que en este caso si se puede hacer una ejecución multihilo y totalmente concurrente al no haber dependencias entre los procesadores.
Un saludo.
[/quote]Paco20011 escribió: Al menos es una explicación con algo de sentido, y no un simple "es una chapuza porque yo lo valgo".
.
escalibur009 escribió:nadie ha dicho que sea una mierda porque si, por el lado opuesto tenemos a los que han insinuado que si es asi "por algo sera y ellos sabran"
escalibur009 escribió:Paco20011 escribió: Al menos es una explicación con algo de sentido, y no un simple "es una chapuza porque yo lo valgo".
nadie ha dicho que sea una mierda porque si, por el lado opuesto tenemos a los que han insinuado que si es asi "por algo sera y ellos sabran", que basicamente esa frase dice algo asi como que los foros de opinion no sirven para nada
Paco20011 escribió:Joer, siempre me saco tochos absurdamente grandes de texto para decir lo que se puede decir en una frase. Que se diga que es una chapuza la batería, la memoria... pues vale, porque es algo que conocemos cómo va. Pero el que pongan dos procesadores sea una chapuza... me pregunto si la noticia hubiera sido "han puesto uno sólo en vez de dos procesadores como se habían planteado" ¿cuál sería el comentario? Me lo imagino: vaya chapuza.
nanoxxl escribió:no se por quien dices eso , para mi no es una chapuza que tenga dos gpu , a mi me parece mal que solo se usen las dos gpu con las 3d y solo una con las 2d , que sea una o dos gpu me da igual
Carlos A. escribió:nanoxxl escribió:no se por quien dices eso , para mi no es una chapuza que tenga dos gpu , a mi me parece mal que solo se usen las dos gpu con las 3d y solo una con las 2d , que sea una o dos gpu me da igual
Ya he explicado antes más o menos el porqué no, además de que en el mejor de los casos habría diferencias entre el 2D y el 3D, cosa que supongo que Nintendo no querrá para que la función estrella de la consola, el 3D, quede relegada a una segunda posición.
Un saludo.
Johny27 escribió:Iba a ponerme a explicar con detalle, pero viendo las barbaridades sacadas de la manga que está soltando más de uno no se si merece la pena, porque si realmente piensan eso no van a aprender nada.
nanoxxl escribió:Johny27 escribió:Iba a ponerme a explicar con detalle, pero viendo las barbaridades sacadas de la manga que está soltando más de uno no se si merece la pena, porque si realmente piensan eso no van a aprender nada.
tienes documento oficiales , datos tecnicos oficiales o cualquier otra cosa para explicar como funciona la 3ds por dentro ( como trabajan las cpu , gpu ..... ) , pues por que no lo explicar y salimos todos de duda .....
Johny27 escribió:No hacen falta documentos oficiales para saber que muchos estáis diciendo verdaderas barbaridades y que sabéis 0 de cómo se generan gráficos, tanto 2D como 3D. Aún me lo tengo que pensar, porque hay más de uno que está en plan cabezón afirmando cosas que no tienen ni pies ni cabeza.
Carlos A. escribió:Johny27 escribió:No hacen falta documentos oficiales para saber que muchos estáis diciendo verdaderas barbaridades y que sabéis 0 de cómo se generan gráficos, tanto 2D como 3D. Aún me lo tengo que pensar, porque hay más de uno que está en plan cabezón afirmando cosas que no tienen ni pies ni cabeza.
Pues habla, ni que estuvieses esperando una exclusiva con un par de robados en Nintendo Acción o algo así.
Aquí venimos a aprender y a escuchar opiniones, hombre .
Un saludo.
Johny27 escribió:Na, lo decía porque un día me metí una parrafada y a los dos post ya estaban con las tonterías. Ahora tengo que salir, pero luego a al noche escribo algo respecto al tema.
Carlos A. escribió:Johny27 escribió:Na, lo decía porque un día me metí una parrafada y a los dos post ya estaban con las tonterías. Ahora tengo que salir, pero luego a al noche escribo algo respecto al tema.
Perfecto, así da gusto entrar en este subforo. Ojalá permanezca siempre así.
Un saludo y que te lo pases bien (si es que procede).
Paco20011 escribió:escalibur009 escribió:Paco20011 escribió: Al menos es una explicación con algo de sentido, y no un simple "es una chapuza porque yo lo valgo".
nadie ha dicho que sea una mierda porque si, por el lado opuesto tenemos a los que han insinuado que si es asi "por algo sera y ellos sabran", que basicamente esa frase dice algo asi como que los foros de opinion no sirven para nada
Hombre, si se habla de algo de lo que no se sabe y se dice que es una chapuza o que han tirado por el camino fácil... pues es como si yo me pongo a decir que los sistemas de regulación de radiacción en una central nuclear son una chapuza. Yo no se si es chapuza o no es chapuza, pero lo habrán hecho así por algo (aunque ese algo sea ahorrar costes, no lo sé). Si se sabe cómo funcionan esas tecnologías entonces sí se puede valorar, pero si no se conocen, por mucho que digas que "por algo será", es hacer un poco el "Sálvame"... "yo no digo nada ni quiero meterme donde no me llaman, pero esa tía es una zorra, aunque no la conozco". Tiras la piedra y escondes la mano.
Que no estoy tirando de las orejas a nadie, se puede especular y pensar en diversas formas de hacer las cosas con lo que conocemos, pero vamos que determinar que es una chapuza o al menos insinuarlo, cuando no se sabe ni cómo funciona ni se conoce la tecnología... yo puedo decir si tal o cuál página es una chapuza y me dedico a ello porque lo conozco, y aún así me equivocaré en muchos casos porque no sé exactamente la estructura y cómo está montado el servidor.
A mí eso del beneficio de la duda... si creo que me has hecho una putada y te digo "aunque no lo sé seguro te llamo hijo de **** por si acaso. Pero que conste que me puedo equivocar". Posiblemente no te haga mucha gracia. El beneficio de la duda es callar la boca y no decirte eso o no decir que es una chapuza hasta que se sepa algo en firme. Pero bueno, esto es cosa que me molesta a mí particularmente, no tenéis por qué estar de acuerdo.
Joer, siempre me saco tochos absurdamente grandes de texto para decir lo que se puede decir en una frase. Que se diga que es una chapuza la batería, la memoria... pues vale, porque es algo que conocemos cómo va. Pero el que pongan dos procesadores sea una chapuza... me pregunto si la noticia hubiera sido "han puesto uno sólo en vez de dos procesadores como se habían planteado" ¿cuál sería el comentario? Me lo imagino: vaya chapuza.
escalibur009 escribió:Esperando a la noche para aprender Johny27 y si en tu parrafada( con cariño ) entra la explicacion del porque si no quieres usar el efecto 3d no puedas aprovechar el segundo procesador para generar mas IA, mayores fisicas, graficos mas bonitos no es una cagada de nintendo mejor que mejor... pienso que lo cape de serie y luego salga diciendo que no obliga a desarrolar con el efecto molon es un poco meter la gamba pero espero la explicacion
escalibur009 escribió:Esperando a la noche para aprender Johny27 y si en tu parrafada( con cariño ) entra la explicacion del porque si no quieres usar el efecto 3d no puedas aprovechar el segundo procesador para generar mas IA, mayores fisicas, graficos mas bonitos no es una cagada de nintendo mejor que mejor... pienso que lo cape de serie y luego salga diciendo que no obliga a desarrolar con el efecto molon es un poco meter la gamba pero espero la explicacion
escalibur009 escribió:el problema sabes cual es? que cuando tampoco se sabe nada pero es para alabarlo no entra el escepticismo de por medio
Pero vamos que en bruto tienes razon, y son todo suposiciones, hasta la de que el 3d es caro, que ya dijo Johny27 que costaba 5 pavos la pantallita...
escalibur009 escribió:Esperando a la noche para aprender Johny27 y si en tu parrafada( con cariño ) entra la explicacion del porque si no quieres usar el efecto 3d no puedas aprovechar el segundo procesador para generar mas IA, mayores fisicas, graficos mas bonitos no es una cagada de nintendo mejor que mejor... pienso que lo cape de serie y luego salga diciendo que no obliga a desarrolar con el efecto molon es un poco meter la gamba pero espero la explicacion
Johny27 escribió:Más fácil es que me digais qué queréis saber y ya os lo digo dentro de mis limitados conocimientos. Lo que si os digo es que lo que no sepa no lo voy a explicar, paso de inventármelo que luego queda feo.
Edito: tampoco esperéis un master eh, que solo voy a decir por encima cómo se hace y nada más, ni ejemplos de código, ni gráficos explicativos ni nada
escalibur009 escribió:carlos te doy la razon en eso, pero el ejemplo que he puesto no tiene nada que ver, ya que yo me refiero a programadores que usando la "libertad" de nintendo no les de la gana programar en 3d pero en cambio tengan ahi potencia muriedose de risa por la misma "libertad" de nintendo
nanoxxl escribió:yo estoi diciendo que para crear 3d no hace falta dos gpu con una se puede ¿ es cierto o no ?
con dos gpu se puede utilizar como una , creo que esto esta demostrado en los pc , ¿ pero las dos gpu de 3ds se pueden usar para 2d ? por que nintendo limita la segunda gpu para las 3d ¿ cuestion de hardware o una limitacion para pasar de 2d a 3d sin sufrir un gran bajon ?
Johny27 escribió:Otra cosa, la gpu de la 3ds no se puede usar para físicas ni para IA, está muy limitada como para usarla para gpgpu.
Carlos A. escribió:Johny27 escribió:Otra cosa, la gpu de la 3ds no se puede usar para físicas ni para IA, está muy limitada como para usarla para gpgpu.
No sabía yo que estuviese cortita con sifón para estos menesteres, y habiendo dicho esto, ¿estarán las GPUs hiperexpecializadas a nivel de hardware para el efecto 3D?
Un saludo.
Carlos A. escribió:Johny27 escribió:Otra cosa, la gpu de la 3ds no se puede usar para físicas ni para IA, está muy limitada como para usarla para gpgpu.
No sabía yo que estuviese cortita con sifón para estos menesteres, y habiendo dicho esto, ¿estarán las GPUs hiperexpecializadas a nivel de hardware para el efecto 3D?
Un saludo.
Johny27 escribió:No hay que estar especializado para hacer 3D.
capitanquartz escribió:En Wii sí que se puede trabajar con físicas
capitanquartz escribió:En Wii sí que se puede trabajar con físicas, y yo he hecho cosas con físicas en un Arduino...
Johny27 escribió:capitanquartz escribió:En Wii sí que se puede trabajar con físicas, y yo he hecho cosas con físicas en un Arduino...
Físicas sí, pero ¿físicas en la gpu? primera noticia, que la gpu de la wii no va más allá de la funcionalidad de una geforce 2.
Carlos A. escribió:escalibur009 escribió:carlos te doy la razon en eso, pero el ejemplo que he puesto no tiene nada que ver, ya que yo me refiero a programadores que usando la "libertad" de nintendo no les de la gana programar en 3d pero en cambio tengan ahi potencia muriedose de risa por la misma "libertad" de nintendo
Perfecto, creo que ya te he entendido. Tu hablas de que Nintendo dice por un lado "daremos libertad a los creadores para crear o no un juego en 3D" y después en caso de que quieran hacerlo en 2D no les dejan usar el segundo procesador, ¿no es así?
Un saludo.
capitanquartz escribió:Johny27 escribió:capitanquartz escribió:En Wii sí que se puede trabajar con físicas, y yo he hecho cosas con físicas en un Arduino...
Físicas sí, pero ¿físicas en la gpu? primera noticia, que la gpu de la wii no va más allá de la funcionalidad de una geforce 2.
Bueno, no directamente con la GPU, eso es cierto