Spain Brazil Russia France Germany China Korea Japan

Artificial Intelligence driven Marketing Communications

 
Jun 20, 2018 11:00 AM ET

Cómo controlar robots con gestos de mano y las ondas cerebrales. Sistema de informática y laboratorio de Inteligencia Artificial permite corregir errores de robots en tareas de selección múltiples.


iCrowd Newswire - Jun 20, 2018

Conseguir robots a hacer cosas no es fácil: por lo general, los científicos deben explícitamente programarlos o llegar a entender cómo los seres humanos se comunican través del lenguaje.

Pero ¿qué pasa si nos podríamos controlar robots más intuitivamente, usando sólo gestos con las manos y las ondas cerebrales?

Un nuevo sistema encabezado por los investigadores de MIT Ciencias de la computación y el laboratorio de Inteligencia Artificial (CSAIL) pretende hacer exactamente eso, permitiendo a los usuarios al instante, corregir errores de robot con nada más que señales cerebrales y el toque de un dedo.

Edificio del equipo pasado trabajar centrado en actividades de elección binaria simple, el nuevo trabajo amplía el alcance a las tareas de selección múltiples, abriendo nuevas posibilidades para los trabajadores cómo humanos podría manejar equipos de robots.

Mediante el control de la actividad cerebral, el sistema puede detectar en tiempo real si una persona nota un error como un robot hace una tarea. Mediante una interfaz que mide la actividad muscular, entonces la persona puede hacer gestos con las manos para desplazarse y seleccionar la opción correcta para el robot ejecutar.

El equipo demostró el sistema en una tarea en la que un robot mueve un taladro eléctrico a uno de tres posibles objetivos en el cuerpo de un avión simulado. Lo importante, demostraron que el sistema funciona en las personas que no es nunca visto antes, lo que significa que las organizaciones podrían implementarlo en entornos del mundo real sin necesidad de entrenar a los usuarios.

“Esta obra combina la respuesta EEG y EMG permite interacciones de humanos-robot naturales para un conjunto más amplio de aplicaciones que hemos podido hacer antes de usar sólo comentarios de EEG,” dice el Director de CSAIL Daniela Rus, quien supervisó el trabajo. “Mediante la inclusión de regeneración muscular, podemos utilizar gestos para comandar el robot espacial, con más matices y especificidad.”

Candidato a doctor Joseph DelPreto fue un documento sobre el proyecto junto a Rus, ex CSAIL postdoc Andres F. Salazar-Gomez, ex investigador CSAIL Stephanie Gil, erudito de investigación Ramin M. Hasani, autor principal y profesor de la Universidad de Boston Frank H. Guenther. El libro se presentará en la robótica: Conferencia Ciencias y sistemas (RSS) llevando a cabo en Pittsburgh la próxima semana.

En la mayor parte del trabajo anterior, sistemas generalmente podrían reconocer sólo señales cerebrales cuando se capacitó a personas para “pensar” de maneras muy específicas pero arbitrarias y cuando el sistema fue entrenado en dichas señales. Por ejemplo, un operador humano tendría que mirar diferentes pantallas de luz que corresponden a tareas diferentes robot durante una sesión de entrenamiento.

No es de extrañar, estos enfoques son difíciles para las personas manejar confiablemente, especialmente si trabajan en campos como la construcción o la navegación que ya requieren concentración intensa.

Mientras tanto, equipo de la Rus’ aprovecha la potencia de las señales del cerebro llamado “potenciales relacionados con el error” (ErrPs), que los investigadores han encontrado para ocurrir naturalmente cuando la gente cuenta de errores. Si hay un ErrP, el sistema se detiene para que el usuario puede corregir Si no, lleva a cabo.

“Lo bueno de este enfoque es que no hay necesidad de entrenar a los usuarios a pensar de una manera prescrita,” dice DelPreto. “La máquina se adapta a usted y no al revés”.

Para el proyecto, el equipo usó a “Baxter”, un robot humanoide de repensar la robótica. Con la supervisión humana, el robot fue de elegir el destino correcto 70% de los casos a más del 97 por ciento del tiempo.

Para crear el sistema el equipo aprovecha el poder de la electroencefalografía (EEG) para la actividad cerebral y la electromiografía (EMG) para la actividad muscular, poniendo una serie de electrodos en el cuero cabelludo del usuario y del antebrazo.

Ambos indicadores tienen algunas deficiencias individuales: señales EEG no son siempre confiablemente perceptibles, mientras que las señales de EMG pueden a veces ser difíciles asignar a movimientos que son más específicos que el “movimiento izquierda o derecha”. Fusión de los dos, sin embargo, permite más robusta bio-detección y hace posible que el sistema funcione en nuevos usuarios sin entrenamiento.

“Mirando en músculo y cerebro de las señales, podemos empezar a recoger en gestos naturales de la persona junto con sus complemento las decisiones acerca de si algo va mal,” dice DelPreto. “Esto ayuda a comunicarse con un robot más parecido a comunicarse con otra persona.”

El equipo dice que podía imaginar el sistema un día siendo útil para los ancianos, o los trabajadores con trastornos del lenguaje o movilidad reducida.

“Nos gustaría alejarnos de un mundo donde la gente tiene que adaptarse a las limitaciones de las máquinas,” dice RUS. “enfoques como este programa que es muy muy posible desarrollar sistemas robóticos que son una extensión más natural e intuitiva de nosotros.”

See Campaign: http://news.mit.edu/2018/how-to-control-robots-with-brainwaves-hand-gestures-mit-csail-0620
Contact Information:
Adam Conner-Simons

Tags:
, Artificial Intelligence Newswire, Wire, United States, Spanish

image




iCrowdNewswire

Tags:    News