En estos momentos, los usuarios de Google Glass pueden interactuar con el dispositivo de realidad aumentada a base de comandos táctiles o de voz. Sin embargo, estos métodos de entrada no parecen ser suficientes para la empresa This Place que ha añadido un nuevo factor a la ecuación: Los pensamientos.
La firma londinense acaba de lanzar MindRDR, una aplicación de código abierto que permite controlar algunas funciones de Google Glass en tándem con un sensor electroencefalográfico (EEG). En la práctica, el software posibilita la ejecución de comandos en el visor de Google simplemente pensando en ellos.
MindRDR ya está disponible en GitHub y es compatible con los biosensores MindWave de NeuroSky. La aplicación traduce las ondas cerebrales detectadas por el headset EEG en órdenes para Google Glass, mostrando a su vez un medidor gráfico de la "concentración" del usuario para cada comando.
El medidor de concentración muestra una línea horizontal que se eleva a medida que el usuario se concentra o desciende según se relaja. Para lanzar una orden, el operador deberá pensar en ella hasta que la línea llegue a la parte superior de la pantalla, teniendo que repetir el proceso para cada comando independiente.
De momento, MindRDR solo permite sacar fotografías y compartirlas en Facebook o Twitter, pero sus responsables esperan que el proyecto abierto llame a la creatividad de otros desarrolladores para órdenes más complejas. This Place asegura que el sistema tendrá aplicaciones futuras en trabajos que necesiten manos libres o bien para pacientes con esclerosis u otros tipos de parálisis.
Por su parte, Google ya se ha pronunciado respecto al proyecto en declaraciones a la BBC: "Google Glass no puede leer tu mente. […] No hemos revisado ni aprobado esta aplicación en particular, por lo que no está disponible desde la app store de Glass". La portavoz de Google añade sin embargo que su compañía está siguiendo varias líneas de investigación en diversos campos médicos, incluyendo cirugía y tratamiento de Parkinson.
La firma londinense acaba de lanzar MindRDR, una aplicación de código abierto que permite controlar algunas funciones de Google Glass en tándem con un sensor electroencefalográfico (EEG). En la práctica, el software posibilita la ejecución de comandos en el visor de Google simplemente pensando en ellos.
MindRDR ya está disponible en GitHub y es compatible con los biosensores MindWave de NeuroSky. La aplicación traduce las ondas cerebrales detectadas por el headset EEG en órdenes para Google Glass, mostrando a su vez un medidor gráfico de la "concentración" del usuario para cada comando.
El medidor de concentración muestra una línea horizontal que se eleva a medida que el usuario se concentra o desciende según se relaja. Para lanzar una orden, el operador deberá pensar en ella hasta que la línea llegue a la parte superior de la pantalla, teniendo que repetir el proceso para cada comando independiente.
De momento, MindRDR solo permite sacar fotografías y compartirlas en Facebook o Twitter, pero sus responsables esperan que el proyecto abierto llame a la creatividad de otros desarrolladores para órdenes más complejas. This Place asegura que el sistema tendrá aplicaciones futuras en trabajos que necesiten manos libres o bien para pacientes con esclerosis u otros tipos de parálisis.
Por su parte, Google ya se ha pronunciado respecto al proyecto en declaraciones a la BBC: "Google Glass no puede leer tu mente. […] No hemos revisado ni aprobado esta aplicación en particular, por lo que no está disponible desde la app store de Glass". La portavoz de Google añade sin embargo que su compañía está siguiendo varias líneas de investigación en diversos campos médicos, incluyendo cirugía y tratamiento de Parkinson.
no, porque esto va por tipos de ondas, es como el nia de ocz que tiene mas años que la tana
(imagen)
Viendo esto:
(imagen)
[carcajad] [carcajad] [carcajad]
Por eso me parece a mí que mandarle comandos al Google Glass desde el MindWave es demasiado pedirle. Se podrá, seguramente, pero igual tardas un minuto en llegar al estado mental que necesitas para que se considere "X" comando, y tardas menos dándole con el dedo o hablando.
Como se nota que estamos en España, aquí la gente planta opiniones sin tener ni puta idea, ni contrastar.
Así nos va.
Ni que lo digas [+risas]