Científicos crean un sistema para hablar con ondas cerebrales
Por: The New York Times
Abril 2019
Fotografia: captura de pantalla The New York Times

"En mi cabeza reviso cada oraci√≥n diez veces, borro alguna palabra, a√Īado un adjetivo, y me aprendo el texto de memoria, p√°rrafo por p√°rrafo", escribi√≥ Jean-Dominique Bauby en el libro autobiogr√°fico La escafandra y la mariposa. En ese libro (despu√©s adaptado al cine), Bauby, periodista y editor, describe su vida antes y despu√©s de una lesi√≥n paralizante que le imped√≠a mover un solo m√ļsculo; escribi√≥ todo letra por letra con parpadeos.

Miles de personas deben recurrir a esas maneras de comunicarse que requieren muchísimo esmero debido a lesiones por accidentes o en combate, a embolias o trastornos neurodegenerativos como la esclerosis lateral amiotrófica, que inhabilitan el habla.

Ahora los cient√≠ficos reportan que desarrollaron una "voz virtual prost√©tica", sistema con el cual las intenciones de vocalizaci√≥n del cerebro son traducidas en habla inteligible sin necesidad de mover un solo m√ļsculo, ni siquiera los de la boca. (El f√≠sico y autor Stephen Hawking usaba un m√ļsculo en su cachete para pulsar teclas que una computadora sintetizaba para leer lo que dec√≠a).

Los investigadores ya han desarrollado otros asistentes del habla virtuales en el pasado que funcionan al descifrar las ondas cerebrales que reconocen letras y palabras, representaciones verbales del habla. Pero con ese enfoque no se logran la rapidez ni fluidez del habla natural.

El nuevo sistema, descrito en la revista Nature el 24 de abril, descifra los comandos de motricidad del cerebro que guían el movimiento vocal cuando hablamos -como la dirección de la lengua o qué tanto pegamos los labios- y genera oraciones inteligibles que se aproximen a la cadencia natural de un hablante.

Los expertos indicaron que se trata de una prueba de concepto: es un vistazo a lo que sería posible con más experimentos y afinación. El sistema fue probado inicialmente en personas que mantienen intacta su capacidad del habla; no ha sido usado en personas con las condiciones o lesiones neurológicas, como apoplejías, que pudieran hacer imposible el descifrado de las ondas cerebrales.

Para las pruebas, los cient√≠ficos de la Universidad de California, del campus San Francisco y del de Berkeley, reclutaron a cinco personas que estaban hospitalizadas para evaluaci√≥n antes de una intervenci√≥n quir√ļrgica por epilepsia.

Muchas personas epilépticas no obtienen resultados de los medicamentos y eligen someterse a una operación. Antes de la intervención, los doctores deben encontrar el sitio en el cerebro de los pacientes donde se originan las convulsiones; usan electrodos posicionados sobre la superficie del cerebro, o dentro de la materia gris, para "escuchar" dónde está el mayor movimiento.

Para encontrar la ubicación específica a veces transcurren semanas. En ese tiempo los pacientes andan con los electrodos implantados en o cerca de regiones cerebrales involucradas en el movimiento de ondas de audición y movimiento. Los pacientes suelen dar su consentimiento para participar en experimentos que aprovechan los implantes.

Cinco pacientes en la Universidad de California, campus San Francisco (UCSF), acordaron probar el generador de voz virtual. Cada uno ten√≠a implantados una o dos matrices de electrodos: almohadillas con cientos de peque√Īos electrodos que se colocan sobre la superficie del cerebro.

Conforme los pacientes recitaban cientos de oraciones los electrodos registraban los patrones de actividad neuronal en la corteza motora cerebral. Los investigadores después asociaron esos patrones con los movimientos sutiles de labios, lengua, laringe y mandíbula que hacían los pacientes al hablar de manera natural. El equipo tradujo esos movimientos a las oraciones habladas.

El estudio en Nature reporta que hasta 70 por ciento de lo dicho por la "voz prostética" era comprensible.

"Mostramos, al descifrar la actividad cerebral que guía la articulación, que se puede simular un habla más precisa y que suena más natural que la versión sintetizada a partir de la extracción de representaciones del sonido en el cerebro", dijo Edward Chang, profesor de neurocirugía en UCSF y coautor del nuevo estudio. Lo realizó junto con Gopala K. Anumanchipalli, también de UCSF, y Josh Chartier, afiliado tanto a UCSF como al campus en Berkeley.

Otros sistemas de comunicación con base en implantes han producido unas ocho palabras por minuto. El nuevo programa genera unas 150 palabras por minuto, a la par del habla natural.

Los investigadores tambi√©n encontraron que el sistema de voz prost√©tica adaptada a la actividad neuronal de una persona s√≠ puede usarse y adaptarse para alguien m√°s, lo que sugiere que, alg√ļn d√≠a, estos sistemas podr√≠an existir a la venta de manera generalizada.

El equipo ahora quiere realizar estudios cl√≠nicos para probar m√°s a fondo el sistema. El principal reto para eso posiblemente sea encontrar a los pacientes id√≥neos: las apoplej√≠as que inhabilitan el habla de las personas usualmente tambi√©n da√Īan o eliminan las partes del cerebro que apoyan la articulaci√≥n hablada.

En un comentario adicional al reporte publicado en Natura, los ingenieros biomédicos Chethan Pandarinath y Yahia J. Ali (de la Universidad Emory y del Instituto Tecnológico de Georgia) escribieron: "Con más progreso, esperamos que los individuos con dificultad en el habla puedan recuperar la capacidad de pronunciarse libremente y de reconectarse con el mundo que los rodea".

 

Imprimir
Enviar Articulo

Vida Sana
Industria & Farmacia