miércoles, 9 julio, 2025 - 5:28 pm
TOLUCA 98.9 FM | ATLACOMULCO 104.7 FM | VALLE DE BRAVO 93.5 FM | TULANCINGO 97.1 FM | QUERÉTARO 103.1 FM | SAN JUAN DEL RÍO 93.1 FM | GUADALAJARA 1510 AM | LA PAZ 95.1 FM | LOS CABOS 91.5 FM | CDMX | PUERTO VALLARTA 97.5 FM | SAN LUIS POTOSÍ 620 AM | ZACATECAS 104.9 FM
MÁS
    TOLUCA 98.9 FM | ATLACOMULCO 104.7 FM | VALLE DE BRAVO 93.5 FM | TULANCINGO 97.1 FM | QUERÉTARO 103.1 FM | SAN JUAN DEL RÍO 93.1 FM | GUADALAJARA 1510 AM | LA PAZ 95.1 FM | LOS CABOS 91.5 FM | CDMX | PUERTO VALLARTA 97.5 FM | SAN LUIS POTOSÍ 620 AM | ZACATECAS 104.9 FM
    InicioTecnologíaNeuroprótesis traduce señales cerebrales en habla en tiempo real

    Neuroprótesis traduce señales cerebrales en habla en tiempo real

    Un equipo de la Universidad de California en Berkeley y San Francisco diseñó un dispositivo capaz de traducir la actividad cerebral en palabras habladas casi en tiempo real. Esto permitió que una mujer de 47 años con tetraplejia hablara después de 18 años.

    El avance resuelve el problema de la latencia en las neuroprótesis del habla, el tiempo que pasa entre intentar hablar y producir sonido. Gracias a la inteligencia artificial (IA), los investigadores lograron sintetizar las señales cerebrales en habla audible casi instantáneamente. El artículo se publicó en Nature Neuroscience.

    “Este enfoque de transmisión rápida, similar al de Alexa y Siri, permite una síntesis más natural y fluida del habla”, afirma Gopala Anumanchipalli, co-investigador principal.

    Edward Chang, otro líder del estudio, destacó el potencial de esta tecnología para mejorar la vida de personas con parálisis que afectan su habla. A través de un ensayo clínico, implantaron una interfaz cerebro-computadora en la paciente que no había podido hablar tras sufrir un accidente cerebrovascular.

    Para entrenar el algoritmo, los investigadores pidieron a la paciente que visualizara frases y las pronunciara internamente. Los datos neuronales fueron utilizados para decodificar su intención de hablar y generar una voz similar a la suya, previamente grabada antes de su lesión.

    La neuroprótesis descifra señales de la corteza motora, que controla la producción del habla, usando IA para convertirlas en palabras. Este sistema reduce la latencia de descodificación, que antes tomaba unos 8 segundos, y ahora genera salida casi en tiempo real.

    El modelo también puede sintetizar palabras no incluidas en los datos de entrenamiento, como el alfabeto fonético de la OTAN, lo que demuestra que la IA está aprendiendo los componentes básicos del sonido y la voz, concluye Anumanchipalli.

    LO MÁS RECIENTE

    Lo Más Relevante

    Natalia Lafourcade anuncia su embarazo en plena gira musical

    La cantautora mexicana Natalia Lafourcade reveló que está embarazada, una noticia que calificó como...

    Sheinbaum llama a reforzar la austeridad para enfrentar el aumento de la deuda

    La presidenta Claudia Sheinbaum Pardo aseguró que el incremento en la deuda pública registrado...

    Infantino inaugura oficina de la FIFA en la Trump Tower de Nueva York

    El presidente de la FIFA, Gianni Infantino, inauguró una nueva oficina de representación del...