fbpx
jueves, mayo 2, 2024
Tecnología

Recuperan el habla con inteligencia artificial

•       Personas con parálisis graves recuperaron la capacidad de hablar
gracias a dos prototipos de interfaz cerebro-computadora con
inteligencia artificial desarrollados en Estados Unidos.
•       Científicos de las universidades de Stanford y de California usan
sistemas nueroprotésicos con algoritmos de voz, que pueden traducir los
pensamientos de personas que padecen enfermedades neurodegenerativas o
lesiones, en voz.

Por Agencia Sapiensideas.com.- Al igual que el famoso científico Stephen
Hawking, miles de personas pierden la capacidad de hablar ya sea por
padecimientos neurodegenerativos como la esclerosis lateral amiotrófica
(ELA), esclerosis múltiple, demencias, o por alguna parálisis grave
causada por un accidente cerebrovascular del tallo cerebral o alguna
lesión de médula espinal.
Tan solo en EE. UU., se calcula que más de 31 mil personas padecen ELA,
y en Mexico se estima que alrededor de 6 mil personas sufren esta
enfermedad incurable, progresiva y mortal.
La ELA ocasiona problemas del habla al atacar las neuronas bulbares, las
células nerviosas responsables de llevar mensajes desde las partes
inferiores del cerebro (región bulbar) a los músculos que mueven los
labios, la lengua, el paladar blando, la mandíbula y las cuerdas
vocales.
Preocupados por estos trastornos que impiden a las personas llevar a
cabo la necesidad básica de comunicarse, dos equipos de científicos
estadounidenses desarrollaron dos interfaces cerebro-computadora (BCI,
por sus siglas en inglés) basados en inteligencia artificial con el
objetivo de restablecer la comunicación en personas con esas afecciones.
Ambos desarrollos tecnológicos basados en neuroprótesis fueron
publicados esta semana en la revista Nature, la más importante del mundo
de la ciencia, y pueden decodificar la actividad cerebral en habla de
forma rápida, precisa y cubren un vocabulario más amplio y con menos
errores que las tecnologías actuales.
Neuroprótesis de alto rendimiento
El primero de ellos, denominado “neuroprótesis del habla de alto
rendimiento”, desarrollado por científicos de la Universidad de Stanford
encabezados por Francis R. Willett, recopila la actividad neuronal de
células individuales con una serie de finos electrodos insertados en el
cerebro y una red neuronal artificial para decodificar las
vocalizaciones.
“La pérdida del habla es devastadora porque perjudica sustancialmente la
comunicación y provoca aislamiento social”, indican los científicos en
el artículo científico.
Anteriormente, agregan, se había demostrado que es posible decodificar
el habla de la actividad cerebral de una persona con parálisis, pero
solo en forma de texto y con velocidad y vocabularios limitados.
Los investigadores experimentaron su dispositivo con una paciente con
esclerosis lateral amiotrófica llamada Pat Bennet, de 68 años, cuyo
padecimiento le permite moverse –aunque cada vez con mayor dificultad–,
pero no puede comunicarse ya que no puede mover adecuadamente los
músculos de orofaciales (de la boca) para expresar palabras
inteligibles.
“Este sistema está entrenado para saber qué palabras deben ir antes que
otras y qué fonemas forman qué palabras”, explicó Willett a
sapiensideas.com. “Si algunos fonemas se interpretaron incorrectamente,
aún se puede hacer una buena suposición”.
Con esta nueva tecnología pudo comunicarse a una velocidad promedio de
62 palabras por minuto, 3.4 veces más rápido que el récord anterior de
un dispositivo similar, acercándose a la velocidad de la conversación
natural de alrededor de 160 palabras por minuto.
Los científicos y la paciente lograron una tasa de error de palabras del
9.1% utilizando un vocabulario de solo 50 palabras, lo que supone 2.7
veces menos errores que las tecnologías previas de voz. Asimismo,
obtuvieron una tasa de error del 23.8% con un vocabulario de 125 mil
palabras.
“Imagínese”, escribió Bennett, “cuán diferente será realizar actividades
cotidianas como ir de compras, asistir a citas, pedir comida, ir al
banco, hablar por teléfono, expresar amor o aprecio (incluso discutir)
cuando las personas no verbales puedan comunicar sus pensamientos en
tiempo real”.
Decodificador de voz y avatar
En la otra investigación llamada “una neuroprótesis de alto rendimiento
para decodificación de voz y control de avatar” llevada a cabo en la
Universidad de California en San Francisco y Berkeley, encabezada por
Edward Chang, se desarrolló una interfaz cerebro-computadora (BCI)
basado en un método similar para acceder a la actividad cerebral, pero
con mayor precisión.
Para ello usaron electrodos no penetrantes que se colocaron en la
superficie del cráneo de una paciente llamada Ann, que detectan la
actividad de muchas células en sitios de toda la corteza del habla.
Esta interfaz decodifica señales cerebrales para generar tres salidas
simultáneas: texto, voz audible y un avatar parlante. Los investigadores
desarrollaron un programa basado en un modelo de aprendizaje profundo
(de inteligencia artificial) para descifrar los datos neuronales
recopilados de la paciente con parálisis severa, causada por un derrame
cerebral, mientras pensaba oraciones completas.
“Nuestro objetivo es restaurar una forma de comunicación plena y
encarnada, que es realmente la forma más natural de hablar con los
demás”, dijo Chang, de la Universidad de California en San Francisco.
“Estos avances nos acercan mucho más a una solución real para los
pacientes”.
Este estudio decodifica las señales cerebrales en la riqueza del habla,
junto con los movimientos que animan el rostro de una persona durante
una conversación.
La traducción de la información generada en el cerebro de la paciente a
texto ocurrió a una velocidad media de 78 palabras por minuto, que es
4.3 veces más rápida que el récord anterior y se acerca aún más a la
velocidad de la conversación natural.
Los investigadores implantaron una placa, delgada como papel, con 253
electrodos en la superficie del cerebro de la mujer, detectando las
señales del habla que, si no fuera por la lesión, habrían llegado a los
músculos de la cara, lengua, mandíbula y laringe, y enviaron la
información a través de un cable a un sistema computarizado.
Esta interfaz logró una tasa de error de palabras del 4.9 % al
decodificar oraciones de un conjunto de 50 frases, lo que supone cinco
veces menos errores que las interfaces de voz actuales.
El siguiente paso de ambos desarrollos será crear versiones inalámbricas
que se podrán conectar a programas instalados en teléfonos inteligentes
o tabletas que brindarán a las personas mayor capacidad de comunicación
y autonomía lo que dejará profundos efectos en su independencia y en sus
interacciones sociales.

—0—

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Si continuas utilizando este sitio aceptas el uso de cookies. más información

Los ajustes de cookies de esta web están configurados para "permitir cookies" y así ofrecerte la mejor experiencia de navegación posible. Si sigues utilizando esta web sin cambiar tus ajustes de cookies o haces clic en "Aceptar" estarás dando tu consentimiento a esto.

Cerrar