Movimiento original


¿Pueden los pensamientos de pacientes incapaces de moverse ser transformados en comandos para que extensiones artificiales ejecuten acciones por ellos? Ahora que la tecnología de la Interfaz Cerebro Computador ya existe, es tiempo de hacerse cargo de los nuevos desafíos que plantea. 
© Frannerd
No es fácil registrar señales de buena calidad cuando los electrodos están por fuera del cráneo. “Es como salir de la pieza, cerrar la puerta y tratar de escuchar lo que se está diciendo adentro”, explica Jane Huggins, directora del proyecto Direct Brain Interface de la U. de Michigan.
Otro problema que debe enfrentar esta tecnología es que cada ser humano es diferente, y es difícil tener un “mapa de los pensamientos” de uso general. Esto, sumado a que las señales cerebrales cambian dependiendo del estado del sujeto, y que pestañear o respirar puede alterar los resultados.
En la foto: Tim Hemmes (a la derecha) saluda a su novia, Katie Schaffer (a la izquierda), valiéndose de un brazo prostético controlado por su cerebro.
Atrapados en sus cuerpos paralizados, los enfermos que padecen de Esclerosis Lateral Amiotrófica (ELA) avanzada pueden pensar con total claridad, pero no pueden mover más que los ojos. La enfermedad es rápida, progresiva y fatal, comenzando con la pérdida paulatina de la fuerza muscular y la coordinación, empeorando a tal nivel que el enfermo no puede tragar ni respirar por sí mismo. El físico Stephen Hawking es quizás uno de los pacientes más emblemáticos de esta enfermedad, que afecta a 5 de cada 100.000 personas en el mundo.

Ya sea por razones genéticas u otras aún desconocidas, las neuronas encargadas de transmitir la información desde el cerebro a los músculos responsables del movimiento voluntario se desgastan y mueren, desconectando el cerebro del resto del cuerpo de manera irreversible. Así, un ser humano que ve, escucha, huele y siente, queda completamente enclaustrado en su cuerpo y preso de su mente lúcida. El estado se conoce como “síndrome de enclaustramiento”.

Si de alguna manera se pudieran rescatar los pensamientos de esos pacientes para transformarlos en comandos, éstos podrían, por ejemplo, manejar su silla de ruedas con la mente, o escribir palabras con sólo pensar en sus letras. 

Hoy, al fin, esa tecnología existe. Se conoce como Interfaz Cerebro Computador.

 

SER HUMANO Y MÁQUINA: MENSAJE DIRECTO 

Cada mañana, el intentar salir de la cama no es tarea fácil. Lograr despegarse de las sábanas es un proceso complejo que empieza con un pensamiento y termina con un acto físico. Lo que en realidad ocurre al “pensar” en levantarse es que cargas eléctricas viajan a través de neuronas interconectadas hasta piernas y brazos, generando un comando certero, el cual es entendido por músculos que se contraen y relajan despegándonos finalmente de las sábanas. 

A pesar de que estas cargas eléctricas corren dentro de neuronas aisladas, existen señales que se escapan. En 1929, el científico alemán Hans Berger anunció por primera vez que estas cargas podían ser medidas sin abrir el cráneo. Era el comienzo del electroencefalograma (EEG), hoy común en el uso clínico para tratar y detectar accidentes cerebrales, epilepsias y tumores, entre otros. Pequeños electrodos -sensores y conductores de electricidad- puestos sobre el cráneo en una especie de cintillo y conectados por cables a un computador eran  capaces de capturar las señales eléctricas de la actividad cerebral y generar un diagrama similar al de un sensor de temblores.

Cuarenta años después, esta tecnología fue parte fundamental del desarrollo de la Interfaz Cerebro Computador. Si un “pensamiento” podía asociarse a un patrón de resultados en el EEG, sería posible desarrollar una tecnología que permita reconocer el diagrama, interpretarlo y traducirlo en una acción. Y en cierta forma, esto fue así.

Por ejemplo, si una persona conectada al EEG mira una pantalla y sigue una flecha que se mueve hacia la izquierda, su cerebro emitirá un patrón de ondas eléctricas representativas del pensamiento “moverse a la izquierda” en el computador. Una vez entrenados el hombre y la máquina, el personaje sólo deberá pensar en mover la flecha a la izquierda o, más bien, emitir el mismo patrón de señales eléctricas que el computador entiende como “moverse a la izquierda”, para mover la flecha con el pensamiento. De esa manera, el deseo y la acción se coordinan a través de una máquina en vez de hacerlo a través de neuronas conectadas a músculos.

Ahora, si la flecha del ejemplo pasado es un cursor y el sujeto que lo maneja es un enfermo con síndrome de enclaustramiento, el resultado es el principio de su reconexión con el mundo exterior.

“La Interfaz Cerebro Computador ofrece a las personas con ELA la esperanza de una comunicación y una conexión continua con el mundo”, dice Jane Huggins, directora del proyecto Direct Brain Interface  de la Universidad de Michigan.

 

EN BUSCA DEL "MOMENTO ¡AJÁ!"

Existen tecnologías de comunicación que suplementan o reemplazan el habla o la escritura -pizarras de dibujos, o dispositivos generadores de voz- en pacientes con problemas para hablar o escribir. Sin embargo, el mínimo requisito para que estos sistemas funcionen es que el paciente tenga alguna función motora residual que le permita generar una señal de tipo “sí/no”, como mover el codo, por ejemplo.

El problema es que pacientes con discapacidades motoras severas, como los que padecen ELA avanzado, no tienen ningún tipo de control muscular voluntario, por lo que no pueden acceder a estas tecnologías. Es aquí donde la Interfaz Cerebro Computador pasa a ser una herramienta fundamental.
“Lo que buscamos es ese pequeño  ¡ajá! en la actividad cerebral”, explica Huggins. “Si pongo un set de letras que tintinean en una pantalla, y quiero escribir la palabra JANE, pongo atención en la J, y cuando la letra tintinea pienso ¡Ésa era mi letra! Una vez que escribo la J, paso a la A y mi cerebro hace el ¡ajá! con la A, a pesar de que la primera vez no lo hizo porque yo no estaba interesada en las A. Sólo dependiendo a qué letra el usuario está reaccionando, puedes registrar cómo se ve la señal y qué letra quiere escribir”, cuenta.

No es fácil, sin embargo, registrar señales de buena calidad cuando los electrodos están por fuera del cráneo, ya que éste bloquea y resta resolución al sistema.

“Es como salir de la pieza, cerrar la puerta y tratar de escuchar lo que se está diciendo adentro”, explica Huggins. “Seguramente tendrías que pedir que las personas lo repitan varias veces”.

Una alternativa es implantar los electrodos directamente en el cerebro en diferentes áreas -como la corteza motora, el área responsable de los movimientos-, y a diferentes profundidades. Esta técnica invasiva aumenta la eficiencia del sistema, pero tiene también posibles complicaciones como infecciones o formación de cicatrices que afectan la captación de señales.

A pesar de eso, hay pacientes tetrapléjicos, como Cathy Hutchinson, de Massachusetts, que se han sometido a implantes intracraneales, los cuales les permiten leer el diario en internet y poner play a su canción favorita. Cuatro años después, Hutchinson ya era capaz de mover un brazo robótico y llevarse una botella con café a la boca con sólo pensarlo.

El tener al paciente literalmente enchufado a un cable que sale de su cabeza y conectado a un computador  tiene problemas prácticos evidentes, los cuales podrían solucionarse con tecnologías como las de wi-fi (dispositivos que ya existen a nivel experimental).

“Lo ideal sería que se desarrollen tecnologías desde la electrónica, que permitan mantener activo el sistema de registro y que se pueda cerrar el cráneo”, explica Claudio Tapia, kinesiólogo e investigador de sistemas inteligentes aplicados a la Interfaz Cerebro Computador del Departamento de Ingeniería Eléctrica de la Universidad de Chile. “Por ejemplo, tener baterías y un sistemas de transmisión que podría ser internet o Bluetooth”.


UN ASUNTO DE ENTRENAMIENTO

Uno de los grandes desafíos que enfrenta esta tecnología es decodificar la infinita y compleja red de pensamientos. “Actualmente no se ha logrado decodificar pensamientos en distintas clases, diferenciar distintas categorías”, explica Tapia. “En cuanto a órdenes relacionadas con el movimiento, se ha podido diferenciar en clases hasta cierto punto, pero siempre después de un entrenamiento”.

Y el entrenamiento es un factor clave para que esta tecnología funcione. Existen, a grandes rasgos, dos tipos de aprendizaje: el supervisado y el no supervisado. El supervisado le impone una instrucción al sujeto: mirar la flecha moviéndose a la izquierda, como en el ejemplo anterior. Este tipo de entrenamiento es efectivo, pero limitado en la cantidad de pensamientos que pueden ser trabajados. En el no supervisado, es la máquina la que tiene el rol de descifrar cuántos tipos de pensamientos diferentes están ocurriendo y dónde, generando una especie de mapa de los pensamientos. “Tú entrenas a la persona y le dices: ahora piensa en la mano derecha... y eso va a quedar en algún área del cerebro”, explica Tapia. 

Así, cuando la persona piensa de manera espontánea en mover la mano derecha, el pensamiento cae en la zona cerebral del mapa asociada previamente con la acción y es reconocida por el computador.

Otro problema no menor que debe enfrentar esta tecnología es que cada ser humano es diferente, y es difícil tener un “mapa de los pensamientos” de uso general. Esto, sumado a que las señales cerebrales cambian, dependiendo del estado del sujeto, y que pestañear o respirar puede alterar los resultados.

“La clasificación del pensamiento está supeditada al estado interno de la persona”, explica Tapia. “Si te sacas el cintillo (del EEG), vas a tomarte un café y después te lo vuelves a poner, cambia todo… o si tuviste una pelea con tu pareja, eso ya te genera una actividad distinta”.

 

MÁS ALLÁ DE LA ENFERMEDAD
A pesar de que esta interfaz nace motivada por sus aplicaciones biomédicas, con el tiempo han aparecido otras posibles aplicaciones, tanto para videojuegos -las que han despertado mucho interés por su enorme potencial económico-, como en el área laboral, por ejemplo lograr controlar una grúa con la mente en ambientes extremos, como la minería. 

Otra área que ha demostrado gran interés es la militar, la que ha financiado diversos proyectos de interfaz desde los 70. En junio de este año, investigadores de la Universidad de Minnesota lograron volar un prototipo de  helicóptero manejado con la mente. Aunque el experimento no tuvo fines militares, queda claro cómo esa área podría interesarse en este tipo de avances.   

Aunque pareciera que las aplicaciones de esta tecnología no tienen límites, se requiere sin duda más tiempo para generar dispositivos que se comercialicen de manera masiva.

“Creo que los sistemas no son, en estos momentos, lo suficientemente robustos para ser utilizados fuera de entornos controlados como el de un laboratorio”, explica Aureli Soria-Frisch, program manager de Starlab Barcelona, creadora de dispositivos de EEG wireless.

Quién sabe si la tecnología será capaz eventualmente de decodificar pensamientos más sofisticados o nos permitirá controlar robots a la distancia sólo con la mente. Lo que sí está claro es que hoy las máquinas ya están siendo una extensión natural de nuestro cerebro.

No hay comentarios:

Publicar un comentario

COMENTE SIN RESTRICCIONES PERO ATÉNGASE A SUS CONSECUENCIAS