TOLUCA 98.9 FM | ATLACOMULCO 104.7 FM | VALLE DE BRAVO 93.5 FM | TULANCINGO 97.1 FM | QUERÉTARO 103.1 FM | SAN JUAN DEL RÍO 93.1 FM | GUADALAJARA 1510 AM | LA PAZ 95.1 FM | LOS CABOS 91.5 FM | CDMX | PUERTO VALLARTA 97.5 FM | SAN LUIS POTOSÍ 620 AM | ZACATECAS 104.9 FM
InicioTecnologíaNeuroprótesis traduce señales cerebrales en habla en tiempo real

Neuroprótesis traduce señales cerebrales en habla en tiempo real

Un equipo de la Universidad de California en Berkeley y San Francisco diseñó un dispositivo capaz de traducir la actividad cerebral en palabras habladas casi en tiempo real. Esto permitió que una mujer de 47 años con tetraplejia hablara después de 18 años.

El avance resuelve el problema de la latencia en las neuroprótesis del habla, el tiempo que pasa entre intentar hablar y producir sonido. Gracias a la inteligencia artificial (IA), los investigadores lograron sintetizar las señales cerebrales en habla audible casi instantáneamente. El artículo se publicó en Nature Neuroscience.

“Este enfoque de transmisión rápida, similar al de Alexa y Siri, permite una síntesis más natural y fluida del habla”, afirma Gopala Anumanchipalli, co-investigador principal.

Edward Chang, otro líder del estudio, destacó el potencial de esta tecnología para mejorar la vida de personas con parálisis que afectan su habla. A través de un ensayo clínico, implantaron una interfaz cerebro-computadora en la paciente que no había podido hablar tras sufrir un accidente cerebrovascular.

Para entrenar el algoritmo, los investigadores pidieron a la paciente que visualizara frases y las pronunciara internamente. Los datos neuronales fueron utilizados para decodificar su intención de hablar y generar una voz similar a la suya, previamente grabada antes de su lesión.

La neuroprótesis descifra señales de la corteza motora, que controla la producción del habla, usando IA para convertirlas en palabras. Este sistema reduce la latencia de descodificación, que antes tomaba unos 8 segundos, y ahora genera salida casi en tiempo real.

El modelo también puede sintetizar palabras no incluidas en los datos de entrenamiento, como el alfabeto fonético de la OTAN, lo que demuestra que la IA está aprendiendo los componentes básicos del sonido y la voz, concluye Anumanchipalli.

LO MÁS RECIENTE

Lo Más Relevante

Sheinbaum reconoce a mujeres de Fuerzas Armadas en el 8M

En el marco del Día Internacional de la Mujer (8M), la presidenta Claudia Sheinbaum...

Mujeres de Las Abejas marchan por el 8M en Chiapas

Alrededor de 400 mujeres de la organización Sociedad Civil Las Abejas de Acteal marcharon...

Magistrada Indira Isabel García Pérez llama a no normalizar violencia

La magistrada del Tribunal de Disciplina Judicial del Poder Judicial de la Federación, Indira...