Los sistemas copilotados por IA también podrían ayudar a mejorar el control del usuario del cursor sobre una pantalla, por ejemplo, al interpretar más señales del entorno y sumar herramientas para traducirlo en movimientos.
La inteligencia artificial (IA) es la gran aliada de las personas que han perdido la movilidad como los pacientes afectados por la Esclerosis Lateral Amiotrófica (ELA), mejorando las interfaces cerebro-computadora que traducen su actividad neuronal en movimientos.
Un equipo liderado por Johannes Lee presenta este lunes en la revista Nature Machine Intelligence uno de estos sistemas copilotado por inteligencia artificial que multiplica por casi cuatro el rendimiento a la hora de mover el cursor de una computadora o manejar un brazo robótico.
Dos copilotos de IA
La interfaz desarrollada por Lee y su equipo incluía dos copilotos de IA: uno que ayuda a guiar el cursor de una computadora y otro que asiste en las tareas del brazo robótico mediante información visual.
Al probar la interfaz con los copilotos de IA, un participante con parálisis en las piernas debido a una lesión medular logró un rendimiento 3,9 veces mayor al controlar el cursor de una computadora que sin la asistencia del copiloto de IA.
Los participantes sin parálisis experimentaron una mejora de rendimiento 2,1 veces mayor tras la activación de la IA. Asimismo, el participante con parálisis pudo controlar un brazo robótico para mover bloques de colores hacia objetivos específicos, algo que antes no era posible sin la asistencia de la IA.
Aunque el prototipo se ha probado de momento en un solo participante con parálisis, los autores creen que este modelo de control compartido podría hacer que las interfaces cerebro-computadora sean más prácticas y eficaces para el uso diario, y a medida que los sistemas de IA mejoren, podrían ayudar a los usuarios a realizar tareas más complejas con mayor facilidad.
En cualquier caso, avisan, se necesita más investigación para adaptar el sistema a diferentes usuarios y entornos.
Más allá del registro cerebral
Eduardo Fernández, director del Instituto de Bioingeniería de la Universidad Miguel Hernández de Elche, que no ha participado en el estudio, cree que la principal aportación de este sistema es que va más allá del registro de la actividad cerebral para controlar los dispositivos externos.
“Este equipo ha investigado la posibilidad de utilizar otras fuentes de información, como los movimientos previos y el contexto, junto a técnicas avanzadas de inteligencia artificial para deducir el objetivo del usuario y ayudarle en sus movimientos”, explica Fernández al SMC.
De esta forma, la IA ayuda a decodificar las intenciones del usuario a partir de sus señales cerebrales, incluso cuando estas son ruidosas o incompletas, asegura el experto. “Esto reduce la carga cognitiva y mejora la experiencia, sin quitarle el control al usuario”, recalca. “Esta tecnología ofrece un marco más intuitivo y funcional para el desarrollo de nuevas interfaces cerebro-ordenador”. El futuro es esperanzador, concluye, pero “todavía hay que resolver muchos problemas que afectan al rendimiento y uso generalizado de estos sistemas”.
Fuente: https://www.eldiario.es/sociedad