Miscelánea Humana

Una intervención en el cerebro ayuda a un hombre paralítico a hablar

2021-07-20

“De algún modo, solo quería poder hacer algo para mí, aunque fuera un...

Pam Belluck | The New York Times

En un logro antes inimaginado, unos electrodos implantados en el cerebro del hombre transmiten señales a una computadora que muestra las palabras que intenta decir.

No ha podido hablar desde 2003, cuando se quedó paralítico a la edad de 20 años como consecuencia de un accidente cerebrovascular grave tras un terrible accidente automovilístico.

Ahora, como parte de un gran logro científico, los investigadores han tenido acceso a las zonas del habla ubicadas en su cerebro, lo cual le ha permitido generar palabras y oraciones comprensibles con solo tratar de decirlas. Cuando este hombre, quien usa el sobrenombre de Pancho, intenta hablar, los electrodos implantados en su cerebro transmiten las señales a una computadora que las despliega en la pantalla.

Según los investigadores, su primera oración reconocible fue “Mi familia está afuera”.

Este logro, publicado el miércoles en la revista New England Journal of Medicine, en algún momento podría llegar a ayudar a muchos pacientes que sufren enfermedades que les impiden hablar.

“Hemos llegado más lejos de lo que jamás imaginamos”, señaló Melanie Fried-Oken, profesora de Neurología y Pediatría en la Universidad de Salud y Ciencia de Oregon, quien no participó en el proyecto.

Hace tres años, cuando Pancho, quien ahora tiene 38 años, aceptó trabajar con los neurocientíficos, estos no estaban seguros de que su cerebro hubiera conservado los mecanismos que producen el habla.

“Era posible que esa parte de su cerebro estuviera dormida y nosotros no sabíamos si alguna vez llegaría a despertar para que él pudiera volver a hablar”, explicó Edward Chang, presidente de Neurocirugía en la Universidad de California, campus San Francisco, quien condujo la investigación.

El equipo implantó una placa rectangular de 128 electrodos, diseñada para detectar las señales de los procesos motores y sensoriales relacionados con el habla y vinculados con la boca, los labios, la mandíbula, la lengua y la laringe. En 50 sesiones que tuvieron lugar en un lapso de 81 semanas, enlazaron el implante con una computadora por medio de un cable conectado a un puerto que colocaron en la cabeza de Pancho y le pidieron que intentara decir algunas palabras de una lista de 50 de uso común que él ayudó a proponer, las cuales incluían “hambriento”, “música” y “computadora”.

Cuando lo hacía, los electrodos transmitían las señales mediante un tipo de inteligencia artificial que intentaba reconocer las palabras que él quería decir.

“Nuestro sistema traduce directamente a palabras y oraciones la actividad del cerebro que en condiciones normales habría controlado su tracto vocal”, dijo David Moses, un ingeniero de posdoctorado que, junto con los estudiantes de posgrado Sean Metzger y Jessie R. Liu, desarrolló este sistema. Los tres son autores principales del estudio.

Pancho (quien pidió que solo se le identificara por su sobrenombre para proteger su privacidad) también intentó decir 50 palabras en 50 oraciones diferentes como: “Mi enfermera está afuera” y “Tráeme mis gafas por favor” y respuestas a preguntas del tipo: “¿Cómo te encuentras hoy?”.

Su respuesta, misma que se desplegó en la pantalla, fue: “Estoy muy bien”.

En casi la mitad de las 9000 veces que Pancho trató de decir palabras aisladas, el algoritmo las entendió. Cuando intentó decir las oraciones escritas en la pantalla, su desempeño fue incluso mejor.

Al canalizar los resultados del algoritmo a través de una especie de sistema de autocorrección de predicción del lenguaje, casi tres cuartas partes de las veces la computadora reconoció de manera acertada cada palabra de las oraciones y, más de la mitad de las veces, descifró a la perfección oraciones completas.

“Es algo innovador probar que se puede descifrar el lenguaje a partir de señales eléctricas en la zona motora del cerebro relacionada con el lenguaje”, afirmó Fried-Oken, cuyas propias investigaciones tienen como propósito tratar de detectar la señales mediante el uso de electrodos en un casquete colocado sobre la cabeza, no implantados.

Hace poco, después de una sesión observada por The New York Times, Pancho, con un sombrero de fieltro negro sobre una gorra blanca tejida que cubría el puerto, sonreía e inclinaba un poco la cabeza con sus movimientos limitados. En ráfagas de sonidos roncos, emitió una oración formada con las palabras del proyecto: “No, no tengo sed”.

En las entrevistas para este artículo, las cuales duraron varias semanas, se comunicó a través de correo electrónico gracias a un ratón controlado por su cabeza para oprimir, con mucho esfuerzo, tecla por tecla, método que casi siempre utiliza.

El reconocimiento de sus palabras habladas por medio del implante cerebral es “una experiencia que cambió mi vida”, aseguró.

“Creo que lo único que quiero es obtener algo bueno porque los médicos siempre me dijeron que no tenía ninguna posibilidad de mejorar”, tecleó Pancho durante una videoconferencia desde la clínica de reposo del norte de California en la que vive.

Luego mandó un correo electrónico: “Es devastador no poder comunicarse con nadie, tener una conversación normal y poder expresarse de alguna forma… es muy difícil vivir así”.

Durante las sesiones de la investigación con electrodos, escribió: “Es algo muy parecido a tener una segunda oportunidad para volver a hablar”.

Pancho era un obrero agrícola sano que trabajaba en los viñedos de California hasta que, un domingo de verano, tuvo un accidente automovilístico después de un partido de fútbol. Luego de una operación por un daño grave en el estómago, lo dieron de alta del hospital y él salió caminando, hablando y pensando que estaba iba hacia su recuperación.

No obstante, a la mañana siguiente estaba “vomitando y sin poder sostenerme”, escribió. Los médicos dijeron que había tenido un accidente cerebrovascular que afectó el tronco encefálico, al parecer provocado por un coágulo de sangre posoperatorio.

Una semana después, despertó de un coma en una habitación pequeña y oscura. “Traté de moverme, pero no pude levantar ni un dedo, luego intenté hablar, pero no pude pronunciar ni una palabra”, escribió. “Así que comencé a llorar, pero como no podía emitir ningún sonido, todo lo que hacía era una serie de gestos horribles”.

Fue aterrador. “Deseaba no haber despertado nunca del coma en el que estuve”, escribió.

Este nuevo enfoque, denominado prótesis neuronal del habla, es parte de una oleada de innovaciones destinadas a ayudar a decenas de miles de personas que no pueden hablar, pero cuyo cerebro contiene las vías neuronales para generar lenguaje, señaló Leigh Hochberg, un neurólogo que trabaja en el Hospital General de Massachusetts, la Universidad Brown y el Departamento de Asuntos de los Veteranos quien no participó en el estudio, pero que escribió de manera conjunta un editorial sobre él.

Entre estas personas, podría haber algunas con daño cerebral, enfermedades como la esclerosis lateral amiotrófica (también conocida como enfermedad de Lou Gehrig), o parálisis cerebral, la cual provoca que los pacientes no tengan el control muscular suficiente para poder hablar.

“La urgencia no podría ser mayor”, comentó Hochberg, quien encabeza un proyecto llamado BrainGate, en el cual se implantan electrodos diminutos para leer señales procedentes de neuronas individuales; hace poco, descifró los movimientos vinculados con la escritura en un paciente con parálisis que intentaba escribir.

“Ahora solo es cuestión de años antes de que haya un sistema útil en términos clínicos que permita la rehabilitación de la comunicación”, comentó.

Durante años, Pancho se comunicó deletreando palabras en una computadora con un puntero sujeto a una gorra de béisbol, un método arduo que le permitía escribir unas cinco palabras correctas por minuto.

“Tenía que inclinar la cabeza hacia delante, hacia abajo, y pulsar una a una las letras de las teclas para escribir”, explica en un correo electrónico.

El año pasado, los investigadores le dieron otro dispositivo que consistía en un ratón controlado por la cabeza, pero todavía no es tan rápido como los electrodos cerebrales de las sesiones de investigación.

A través de los electrodos, Pancho comunicaba entre 15 y 18 palabras por minuto. Ese era el ritmo máximo que permitía el estudio porque la computadora esperaba entre una indicación y otra. Chang afirma que es posible una decodificación más rápida, aunque no está claro si se acercará al ritmo del habla conversacional típica: unas 150 palabras por minuto. La velocidad es una de las principales razones por las que el proyecto se centra en el habla, aprovechando directamente el sistema de producción de palabras del cerebro en lugar de los movimientos de la mano que se realizan al teclear o escribir.

“Es la forma más natural de comunicarse”, afirma.

La personalidad optimista de Pancho ha ayudado a los investigadores a superar los desafíos, pero en ocasiones también hace que el reconocimiento del habla sea variable.

“A veces no puedo controlar mis emociones y me río, lo que no ayuda demasiado al experimento”, comentó en un correo electrónico.

Chang recordó momentos en los que, después de que el algoritmo identificara con éxito una frase, “era muy claro que temblaba, podías verlo, y parecía que se reía”. Cuando eso ocurría o cuando, durante las tareas repetitivas, bostezaba o se distraía, “no funcionaba muy bien porque no estaba realmente concentrado en lograr esas palabras. Así que tenemos que trabajar en algunas cosas porque obviamente queremos que funcione todo el tiempo”.

El algoritmo a veces confundía palabras en inglés con sonidos fonéticos similares, identificando going como bring, do como you, y palabras que empiezan por “F” —faith, family, feel— como una palabra con “v”, very.

Las frases más largas necesitaban más ayuda del sistema de predicción lingüística. Sin ella, “¿Qué te parece mi música?” se decodificaba como “¿Qué te parece que traiga mal?” y “Hola, ¿cómo estás?” se convertía en algo como “Hambre como estoy”.

Pero en las sesiones que la pandemia interrumpió durante meses, la precisión mejoró, dijo Chang, tanto porque el algoritmo aprendió de los esfuerzos de Pancho como porque “definitivamente hay cosas que están cambiando en su cerebro”, ayudando a que “se ilumine y nos muestre las señales que necesitábamos para sacar estas palabras”.

Antes de su accidente cerebrovascular, Pancho solo había asistido a la escuela hasta el sexto grado en México, su país natal. Desde entonces, con una gran determinación ha terminado su bachillerato, tomado clases en la universidad, obtenido un certificado de desarrollador de redes y comenzado a estudiar francés.

“Creo que el accidente me hizo ser una mejor persona… y también más listo”, escribió.

Con el movimiento limitado de su muñeca, Pancho puede maniobrar una silla de ruedas eléctrica al oprimir una palanca con un calcetín relleno que está sujeto con bandas elásticas alrededor de su mano. En las tiendas, se acerca a algo hasta que los cajeros captan lo que quiere, como una taza de café.

“Lo ponen en mi silla de ruedas y lo traigo a casa para que me ayuden a beberlo”, comentó. “Las personas de la clínica se sorprenden y siempre me preguntan: ‘¿¡CÓMO LO COMPRASTE Y CÓMO LES DIJISTE LO QUE QUERÍAS!?’”.

También trabaja con otros investigadores utilizando los electrodos para ayudarlo a manipular un brazo robótico.

Sus sesiones de habla dos veces por semana pueden ser difíciles y agotadoras, pero siempre está “deseando levantarme y salir de la cama cada día, y esperar a que llegue mi gente de la universidad”.

El estudio del lenguaje es la culminación de más de una década de investigación, en la que el equipo de Chang mapeó la actividad cerebral relacionada con todos los sonidos de las vocales y las consonantes, y accedió al cerebro de personas sanas para generar lenguaje computarizado.

Los científicos subrayan que los electrodos no leen la mente de Pancho, sino que detectan las señales del cerebro que corresponden a cada palabra que intenta decir.

“Pancho piensa en la palabra”, comentó Fried-Oken. “La computadora no capta los pensamientos al azar”.

Chang señaló: “Quizás en el futuro podamos saber lo que la gente está pensando”, lo cual plantea “algunas cuestiones muy importantes sobre la ética de este tipo de tecnología”. Pero, según él, “esta solo intenta recuperar la voz de la persona”.

En las tareas más recientes, Pancho imita palabras en silencio y deletrea palabras menos comunes utilizando el alfabeto militar: “delta” por “d”, “foxtrot” por “f”.

“Es un verdadero pionero”, dijo Moses.

El equipo de investigación también quiere diseñar implantes con mayor sensibilidad y que todo el implante sea inalámbrico para evitar infecciones, afirmó Chang.

A medida que participen más pacientes, los científicos podrían encontrar variaciones cerebrales individuales, dijo Fried-Oken, y añadió que si los pacientes están cansados o enfermos, la intensidad o el tiempo de sus señales cerebrales podrían cambiar.

“De algún modo, solo quería poder hacer algo para mí, aunque fuera un poquito”, comentó Pancho, “pero ahora sé que no lo estoy haciendo solo para mí”.



aranza

Notas Relacionadas

No hay notas relacionadas ...



Ver publicaciones anteriores de esta Columna