viernes, 30 mayo, 2025 - 5:07 pm
TOLUCA 98.9 FM | ATLACOMULCO 104.7 FM | VALLE DE BRAVO 93.5 FM | TULANCINGO 97.1 FM | QUERÉTARO 103.1 FM | SAN JUAN DEL RÍO 93.1 FM | GUADALAJARA 1510 AM | LA PAZ 95.1 FM | LOS CABOS 91.5 FM | CDMX | PUERTO VALLARTA 97.5 FM | SAN LUIS POTOSÍ 620 AM | ZACATECAS 104.9 FM
MÁS
    TOLUCA 98.9 FM | ATLACOMULCO 104.7 FM | VALLE DE BRAVO 93.5 FM | TULANCINGO 97.1 FM | QUERÉTARO 103.1 FM | SAN JUAN DEL RÍO 93.1 FM | GUADALAJARA 1510 AM | LA PAZ 95.1 FM | LOS CABOS 91.5 FM | CDMX | PUERTO VALLARTA 97.5 FM | SAN LUIS POTOSÍ 620 AM | ZACATECAS 104.9 FM
    InicioTecnologíaNeuroprótesis traduce señales cerebrales en habla en tiempo real

    Neuroprótesis traduce señales cerebrales en habla en tiempo real

    Un equipo de la Universidad de California en Berkeley y San Francisco diseñó un dispositivo capaz de traducir la actividad cerebral en palabras habladas casi en tiempo real. Esto permitió que una mujer de 47 años con tetraplejia hablara después de 18 años.

    El avance resuelve el problema de la latencia en las neuroprótesis del habla, el tiempo que pasa entre intentar hablar y producir sonido. Gracias a la inteligencia artificial (IA), los investigadores lograron sintetizar las señales cerebrales en habla audible casi instantáneamente. El artículo se publicó en Nature Neuroscience.

    “Este enfoque de transmisión rápida, similar al de Alexa y Siri, permite una síntesis más natural y fluida del habla”, afirma Gopala Anumanchipalli, co-investigador principal.

    Edward Chang, otro líder del estudio, destacó el potencial de esta tecnología para mejorar la vida de personas con parálisis que afectan su habla. A través de un ensayo clínico, implantaron una interfaz cerebro-computadora en la paciente que no había podido hablar tras sufrir un accidente cerebrovascular.

    Para entrenar el algoritmo, los investigadores pidieron a la paciente que visualizara frases y las pronunciara internamente. Los datos neuronales fueron utilizados para decodificar su intención de hablar y generar una voz similar a la suya, previamente grabada antes de su lesión.

    La neuroprótesis descifra señales de la corteza motora, que controla la producción del habla, usando IA para convertirlas en palabras. Este sistema reduce la latencia de descodificación, que antes tomaba unos 8 segundos, y ahora genera salida casi en tiempo real.

    El modelo también puede sintetizar palabras no incluidas en los datos de entrenamiento, como el alfabeto fonético de la OTAN, lo que demuestra que la IA está aprendiendo los componentes básicos del sonido y la voz, concluye Anumanchipalli.

    LO MÁS RECIENTE

    Lo Más Relevante

    Nestlé se une a “Hecho en México” con 200 productos

    Nestlé México anunció su incorporación al programa “Hecho en México”, una iniciativa promovida por...

    Explosión en planta química de China deja cinco muertos y seis desaparecidos

    Cinco personas murieron y al menos seis permanecen desaparecidas tras la explosión ocurrida este...

    Reforma consular permite digitalizar trámites y ampliar funciones

    El gobierno federal publicó este martes un decreto que modifica el Reglamento de la...