Skip to content
1932

LAYOUT MENU

Insert PARAGRAPH
Insert IMAGE CAPTION
Insert SIDEBAR WITH IMAGE
Insert SIDEBAR NO IMAGE
Insert YMAL WITH IMAGES
Insert YMAL NO IMAGES
Insert NEWSLETTER PROMO
Insert IMAGE CAROUSEL
Insert PULLQUOTE
Insert VIDEO CAPTION

LAYOUT MENU

CRÉDITO: REVISTA KNOWABLE

Mediante el registro de la actividad de neuronas específicas del cerebro, los investigadores pretenden captar las señales del habla intencionada.

Leer la mente con máquinas

Investigadores están desarrollando interfaces cerebro-computadora que permitirían a personas con síndrome de enclaustramiento —y otras afecciones que les impiden hablar— comunicarse.


Read in English

En la novela clásica de Alejandro Dumas El conde de Montecristo, un personaje llamado Monsieur Noirtier de Villefort sufre un terrible infarto cerebral que lo deja paralítico. Aunque permanece despierto y consciente, ya no puede moverse ni hablar, y depende de su nieta Valentine para recitar el alfabeto y hojear un diccionario para encontrar las letras y palabras que necesita. Con esta rudimentaria forma de comunicación, el decidido anciano consigue salvar a Valentine de ser envenenada por su madrastra y frustrar los intentos de su hijo de casarla contra su voluntad.

El retrato que hace Dumas de este estado catastrófico —en el que, como él dice, “el alma está atrapada en un cuerpo que ya no obedece sus órdenes”— es una de las primeras descripciones del síndrome de enclaustramiento. Esta forma de parálisis profunda se produce cuando se daña el tronco encefálico, generalmente a causa de un derrame cerebral, pero también como resultado de tumores, lesiones cerebrales traumáticas, mordeduras de serpiente, abuso de sustancias, infecciones o enfermedades neurodegenerativas como la esclerosis lateral amiotrófica (ELA).

Ilustración antigua de un anciano sentado en una silla. Una mujer joven se sienta a su lado, sostiene un gran libro y gesticula en una de sus páginas mientras observa el rostro del anciano.

En El conde de Montecristo, Monsieur Noirtier de Villefort no puede moverse ni hablar, pero se comunica con su nieta a través de palabras y letras en un libro.

CRÉDITO: PROYECTO GUTENBERG

Se cree que este trastorno es poco frecuente, aunque es difícil saber hasta qué punto. Muchos pacientes encerrados pueden comunicarse mediante movimientos oculares intencionados y parpadeos, pero otros pueden quedar completamente inmóviles, perdiendo incluso la capacidad de mover los globos oculares o los párpados, lo que anula la orden “parpadea dos veces si me entiendes”. Como resultado, los pacientes pueden pasar una media de 79 días encerrados en un cuerpo inmóvil, conscientes pero incapaces de comunicarse, antes de que se les diagnostique adecuadamente.

La llegada de las interfaces cerebro-máquina ha alimentado la esperanza de devolver la comunicación a las personas en este estado de encierro, permitiéndoles reconectar con el mundo exterior. Estas tecnologías suelen utilizar un dispositivo implantado para registrar las ondas cerebrales asociadas al habla y, a continuación, emplean algoritmos informáticos para traducir los mensajes deseados. Los avances más interesantes no requieren parpadeo, seguimiento ocular ni intentos de vocalización, sino que capturan y transmiten las letras o palabras que una persona dice en silencio en su cabeza.

“Creo que esta tecnología tiene el potencial de ayudar a las personas que más han perdido, a las que están realmente enclaustradas y ya no pueden comunicarse en absoluto”, afirma Sarah Wandelt, estudiante de posgrado en computación y sistemas neuronales en el Caltech de Pasadena. Estudios recientes de Wandelt y otros han aportado las primeras pruebas de que las interfaces cerebro-máquina pueden descodificar el habla interna. Estos métodos, aunque prometedores, suelen ser invasivos, laboriosos y caros, y los expertos coinciden en que necesitarán mucho más desarrollo antes de poder dar voz a los pacientes enclaustrados.

Involucrar al cerebro, pero ¿dónde?

El primer paso para crear una interfaz cerebro-máquina es decidir qué parte del cerebro se va a utilizar. Cuando Dumas era joven, muchos creían que los contornos del cráneo servían de atlas para comprender el funcionamiento interno de la mente. Todavía se pueden encontrar vistosos diagramas frenológicos —con secciones delimitadas para facultades humanas como la benevolencia, el apetito y el lenguaje— en anticuados textos médicos y en las secciones de decoración de los grandes almacenes. “Por supuesto, ahora sabemos que eso no tiene sentido”, afirma David Bjånes, neurocientífico e investigador postdoctoral en Caltech. De hecho, ahora está claro que nuestras facultades y funciones surgen de una red de interacciones entre diversas áreas cerebrales, en la que cada área actúa como un nodo de la red neuronal. Esta complejidad supone un reto y una oportunidad: dado que aún no se ha descubierto una región del cerebro responsable del lenguaje interno, varias regiones diferentes podrían ser objetivos viables.

Por ejemplo, Wandelt, Bjånes y sus colegas descubrieron que una parte del lóbulo parietal llamada circunvolución supramarginal (SMG), asociada normalmente a la acción de agarrar objetos, también se activa mucho durante el habla. Hicieron este sorprendente descubrimiento mientras observaban a un participante en un estudio tetrapléjico al que habían implantado en el SMG una matriz de microelectrodos —dispositivo más pequeño que la cabeza de un alfiler cubierto de puntas metálicas miniatura—. La matriz puede registrar el disparo de neuronas individuales y transmitir los datos a través de una maraña de cables a una computadora para que los procese.

Bjånes compara la configuración de su interfaz cerebro-máquina con un partido de fútbol americano. Imagine que su cerebro es el estadio de fútbol y que cada neurona es una persona en ese estadio. Los electrodos son los micrófonos que se bajan al estadio para poder escuchar. “Esperamos colocarlos cerca del entrenador, o quizá de un locutor, o cerca de alguna persona del público que sepa realmente lo que está pasando”, explica. “Y entonces intentamos entender lo que ocurre en el campo. Cuando oímos el rugido del público, ¿es un touchdown? ¿Fue una jugada de pase? ¿Le han dado una patada al mariscal de campo? Intentamos entender las reglas del juego, y cuanta más información podamos obtener, mejor será nuestro dispositivo”.

En el cerebro, los dispositivos implantados se sitúan en el espacio extracelular entre neuronas, donde controlan las señales electroquímicas que se mueven a través de las sinapsis cada vez que se dispara una neurona. Si el implante capta las neuronas pertinentes, las señales que registran los electrodos parecen archivos de audio, reflejando un patrón diferente de picos y valles para distintas acciones o intenciones.

El equipo de Caltech entrenó su interfaz cerebro-máquina para reconocer los patrones cerebrales producidos cuando un participante tetrapléjico en el estudio “decía” internamente seis palabras (campo de batalla, vaquero, pitón, cuchara, natación, teléfono) y dos pseudopalabras (nifzig, bindip). Tras solo 15 minutos de entrenamiento, y utilizando un algoritmo de descodificación relativamente sencillo, el dispositivo pudo identificar las palabras con una precisión superior al 90 %.

El gráfico muestra el tiempo en el eje horizontal y una medida de la variabilidad del disparo de las neuronas en el eje vertical. Las líneas de colores diferentes indican patrones de variabilidad únicos para palabras reales (campo de batalla, pitón, natación, vaquero, cuchara, teléfono) y palabras no reales (nifzig y bindip).

Los investigadores llevaron a cabo experimentos de interfaz cerebro-computadora con la ayuda de un voluntario con tetraplejia que accedió a que le implantaran electrodos en el cerebro. Esta figura muestra lecturas de neuronas en una región del cerebro llamada circunvolución supramarginal, que se activa mucho durante el habla. El voluntario fue sometido a pruebas con una serie de palabras, así como con algunas palabras sin sentido. La población de neuronas que activaba la guía de electrodos se comportaba de forma similar entre las pruebas (ITI, o intervalo intertrial), pero mostraba mucha variabilidad cuando se mostraban palabras al sujeto (Pista), cuando pronunciaba las palabras internamente (Discurso interno) o cuando las pronunciaba en voz alta (Discurso hablado). Cada línea de color indica una palabra diferente. El patrón de variación, indicado por las subidas y bajadas en el eje vertical, permitió que el programa informático distinguiera las palabras entre sí.

Wandelt presentó el estudio, que aún no se ha publicado en una revista científica revisada por pares, en el congreso de la Sociedad de Neurociencia de 2022, celebrado en San Diego. En su opinión, los resultados suponen una importante prueba de concepto, aunque habría que ampliar el vocabulario antes de que un paciente enclaustrado pudiera frustrar a una madrastra malvada o conseguir un vaso de agua. “Obviamente, las palabras que elegimos no eran las más informativas, pero si se sustituyen por sí, no, ciertas palabras que son realmente informativas, eso sería útil”, dijo Wandelt en la reunión.

Pasar de pensamientos a letras —y de letras a palabras—

Otro método evita la necesidad de ampliar el vocabulario diseñando una interfaz cerebro-máquina que reconoce letras en lugar de palabras. Intentando pronunciar en la boca las palabras que codifican cada letra del alfabeto romano, un paciente paralítico podría deletrear cualquier palabra que se le pasara por la cabeza, encadenando esas palabras para comunicarse en frases completas.

“Decir las cosas en voz alta con el habla es algo que hacemos muy a menudo, como cuando hablamos por teléfono con un representante de atención al cliente”, dice Sean Metzger, estudiante de bioingeniería de la Universidad de California en San Francisco y la Universidad de California en Berkeley. Al igual que la estática en una línea telefónica, las señales cerebrales pueden ser ruidosas. Utilizar palabras en clave de la OTAN —como Alfa para A, Bravo para B y Charlie para C— facilita discernir lo que alguien está diciendo.

Metzger y sus colegas probaron esta idea en un participante incapaz de moverse o hablar como consecuencia de un ictus. Al participante en el estudio se le implantó una matriz más grande de electrodos —del tamaño de una tarjeta de crédito— en una amplia franja de su corteza motora. En lugar de escuchar a escondidas neuronas individuales, este conjunto registra la actividad sincronizada de decenas de miles de neuronas, como si se oyera a toda una sección de un estadio de fútbol gemir o animar al mismo tiempo.

Con esta tecnología, los investigadores grabaron horas de datos y los introdujeron en sofisticados algoritmos de aprendizaje automático. Fueron capaces de descifrar el 92% de las frases dichas en silencio por el sujeto del estudio —como “Está bien”o “¿Qué hora es?”— al menos en uno de dos intentos. El siguiente paso, según Metzger, podría ser combinar este método basado en la ortografía con otro basado en las palabras que desarrollaron anteriormente para que los usuarios pudieran comunicarse más rápidamente y con menos esfuerzo.

Aún en la fase inicial

En la actualidad, cerca de 40 personas de todo el mundo llevan implantadas matrices de microelectrodos, y cada vez hay más. Muchos de estos voluntarios —personas paralizadas por accidentes cerebrovasculares, lesiones medulares o ELA— pasan horas conectados a computadoras ayudando a los investigadores a desarrollar nuevas interfaces cerebro-máquina que permitan a otros, algún día, recuperar funciones que han perdido. Jun Wang, informático y logopeda de la Universidad de Texas en Austin, se muestra entusiasmado con los recientes avances en la creación de dispositivos para recuperar el habla, pero advierte de que aún queda mucho camino por recorrer antes de su aplicación práctica. “En este momento, todo este campo está aún en una fase inicial”.

Este vídeo describe una interfaz cerebro-computadora que se está desarrollando en la UC San Francisco. El equipo trabajó con un voluntario que sobrevivió a un derrame cerebral y ya no puede articular palabras. Se implantó un electrodo en una zona del cerebro que controla el tracto vocal. El sistema consiguió descodificar las palabras que el voluntario intentaba pronunciar. Más información aquí.

CRÉDITO: UC SAN FRANCISCO (UCSF)

A Wang y otros expertos les gustaría ver mejoras en el hardware y el software que hicieran los dispositivos menos engorrosos, más precisos y más rápidos. Por ejemplo, el dispositivo pionero del laboratorio de la UCSF funcionaba a un ritmo de unas siete palabras por minuto, mientras que el habla natural va a unas 150 palabras por minuto. E incluso si la tecnología evoluciona hasta imitar el habla humana, no está claro si los enfoques desarrollados en pacientes con cierta capacidad para moverse o hablar funcionarán en los que están completamente enclaustrados. “Mi intuición es que funcionaría, pero no puedo asegurarlo”, dice Metzger. “Tendríamos que verificarlo”.

Otra pregunta que permanece sin respuesta es si es posible diseñar interfaces cerebro-máquina que no requieran cirugía cerebral. Los intentos de crear enfoques no invasivos han fracasado porque tales dispositivos han tratado de dar sentido a señales que han viajado a través de capas de tejido y hueso, como si se tratara de seguir un partido de fútbol desde el aparcamiento.

Wang ha avanzado utilizando una técnica de imagen avanzada llamada magnetoencefalografía (MEG), que registra los campos magnéticos en el exterior del cráneo generados por las corrientes eléctricas en el cerebro, y luego traduce esas señales en texto. Ahora intenta construir un aparato que reconozca los 44 fonemas de la lengua inglesa —como ph u oo— para construir sílabas, palabras y frases.

En última instancia, el mayor reto para restablecer el habla en pacientes encerrados puede tener más que ver con la biología que con la tecnología. La forma en que se codifica el habla, sobre todo el habla interna, puede variar según el individuo o la situación. Una persona puede imaginarse garabateando una palabra en una hoja de papel con los ojos de su mente; otra puede oír la palabra, aún sin pronunciar, resonando en sus oídos; otra puede asociar una palabra con su significado, evocando un estado de ánimo concreto. Dado que cada persona puede asociar distintas ondas cerebrales a distintas palabras, habrá que adaptar las técnicas a la naturaleza individual de cada persona.

“Creo que este planteamiento múltiple de los distintos grupos es nuestra mejor manera de cubrir todas nuestras bases”, dice Bjånes, “y tener planteamientos que funcionen en un montón de contextos distintos”.

Artículo traducido por Debbie Ponchner

Apoye a la revista Knowable

Ayúdenos a hacer que el conocimiento científico sea accesible para todos

DONAR

EXPLORE MÁS | Lea artículos científicos relacionados

MÁS DE
/content/articulo/tecnologia/2023/leer-mente-maquinas
dcterms_title,dcterms_subject
+dcterms_language:language/es -dcterms_type:topics/newsletter -contentType:Journal -contentType:Contributor -contentType:Concept -contentType:Institution
3
3
This is a required field
Please enter a valid email address
Approval was a Success
Invalid data
An Error Occurred
Approval was partially successful, following selected items could not be processed due to error