martes, 13 mayo, 2025 - 2:05 am
TOLUCA 98.9 FM | ATLACOMULCO 104.7 FM | VALLE DE BRAVO 93.5 FM | TULANCINGO 97.1 FM | QUERÉTARO 103.1 FM | SAN JUAN DEL RÍO 93.1 FM | GUADALAJARA 1510 AM | LA PAZ 95.1 FM | LOS CABOS 91.5 FM | CDMX | PUERTO VALLARTA 97.5 FM | SAN LUIS POTOSÍ 620 AM | ZACATECAS 104.9 FM
MÁS
    TOLUCA 98.9 FM | ATLACOMULCO 104.7 FM | VALLE DE BRAVO 93.5 FM | TULANCINGO 97.1 FM | QUERÉTARO 103.1 FM | SAN JUAN DEL RÍO 93.1 FM | GUADALAJARA 1510 AM | LA PAZ 95.1 FM | LOS CABOS 91.5 FM | CDMX | PUERTO VALLARTA 97.5 FM | SAN LUIS POTOSÍ 620 AM | ZACATECAS 104.9 FM
    InicioTecnologíaNeuroprótesis traduce señales cerebrales en habla en tiempo real

    Neuroprótesis traduce señales cerebrales en habla en tiempo real

    Un equipo de la Universidad de California en Berkeley y San Francisco diseñó un dispositivo capaz de traducir la actividad cerebral en palabras habladas casi en tiempo real. Esto permitió que una mujer de 47 años con tetraplejia hablara después de 18 años.

    El avance resuelve el problema de la latencia en las neuroprótesis del habla, el tiempo que pasa entre intentar hablar y producir sonido. Gracias a la inteligencia artificial (IA), los investigadores lograron sintetizar las señales cerebrales en habla audible casi instantáneamente. El artículo se publicó en Nature Neuroscience.

    “Este enfoque de transmisión rápida, similar al de Alexa y Siri, permite una síntesis más natural y fluida del habla”, afirma Gopala Anumanchipalli, co-investigador principal.

    Edward Chang, otro líder del estudio, destacó el potencial de esta tecnología para mejorar la vida de personas con parálisis que afectan su habla. A través de un ensayo clínico, implantaron una interfaz cerebro-computadora en la paciente que no había podido hablar tras sufrir un accidente cerebrovascular.

    Para entrenar el algoritmo, los investigadores pidieron a la paciente que visualizara frases y las pronunciara internamente. Los datos neuronales fueron utilizados para decodificar su intención de hablar y generar una voz similar a la suya, previamente grabada antes de su lesión.

    La neuroprótesis descifra señales de la corteza motora, que controla la producción del habla, usando IA para convertirlas en palabras. Este sistema reduce la latencia de descodificación, que antes tomaba unos 8 segundos, y ahora genera salida casi en tiempo real.

    El modelo también puede sintetizar palabras no incluidas en los datos de entrenamiento, como el alfabeto fonético de la OTAN, lo que demuestra que la IA está aprendiendo los componentes básicos del sonido y la voz, concluye Anumanchipalli.

    LO MÁS RECIENTE

    Lo Más Relevante

    Censo revela: diabetes e hipertensión dominan entre adultos mayores

    Los primeros resultados del censo realizado como parte del programa Salud Casa por Casa...

    Revisión del T-MEC es cuestión de meses, asegura Ebrard

    El titular de la Secretaría de Economía, Marcelo Ebrard Casaubon, estimó que la revisión...

    Sheinbaum rechaza cierre fronterizo de EU a exportaciones de ganado

    La presidenta Claudia Sheinbaum Pardo expresó su desacuerdo con la decisión del gobierno de...