Los investigadores en California han logrado un avance significativo con un sistema con IA que restaura el habla pure a las personas paralizadas en tiempo actual, utilizando sus propias voces, específicamente demostradas en un participante de ensayo clínico que está severamente paralizado y no puede hablar.
Esta tecnología innovadora, desarrollada por equipos de UC Berkeley y UC San Francisco, combina interfaces de computadora cerebrales (BCI) con inteligencia synthetic avanzada para decodificar la actividad neuronal en un habla audible.
En comparación con otros intentos recientes de crear discursos a partir de señales cerebrales, este nuevo sistema es un avance importante.
Sistema de IA (Kaylo Littlejohn, Cheol Jun Cho, et al. Nature Neuroscience 2025)
Cómo funciona
El sistema utiliza dispositivos como matrices de electrodos de alta densidad que registran la actividad neuronal directamente desde la superficie del cerebro. También funciona con microelectrodos que penetran en la superficie del cerebro y los sensores de electromiografía de la superficie no invasiva colocados en la cara para medir la actividad muscular. Estos dispositivos aprovechan el cerebro para medir la actividad neuronal, que la IA aprende a transformar en los sonidos de la voz del paciente.
La neuroprótesis muestra datos neuronales de la corteza motora del cerebro, el área que controla la producción del habla y la IA decodifica esos datos en el habla. Según el autor principal del estudio, Cheol Jun Cho, la neuroprótesis intercepta señales donde el pensamiento se traduce en articulación y, en el medio de eso, el management motor.

Sistema de IA (Kaylo Littlejohn, Cheol Jun Cho, et al. Nature Neuroscience 2025)
AI permite al hombre paralizado controlar el brazo robótico con señales cerebrales
Avances clave
- Síntesis del habla en tiempo actual: El modelo basado en IA transmite un discurso inteligible del cerebro en un tiempo casi realmente actual, abordando el desafío de la latencia en las neuroprosis del habla. Este “enfoque de transmisión trae la misma capacidad rápida de decodificación del habla de los dispositivos como Alexa y Siri a las neuroprotasis”, según Gopala Anumanchipalli, co-investigador principal del estudio. El modelo decodifica los datos neuronales en incrementos de 80 ms, lo que permite el uso ininterrumpido del decodificador, aumentando aún más la velocidad.
- Discurso naturalista: La tecnología tiene como objetivo restaurar el habla naturalista, lo que permite una comunicación más fluida y expresiva.
- Voz personalizada: La IA está entrenada utilizando la propia voz del paciente antes de su lesión, generando audio que suena como ellos. En los casos en que los pacientes no tienen vocalización residual, los investigadores utilizan un modelo de texto a voz previamente capacitado y la voz previa a la lesión del paciente para completar los detalles faltantes.
- Velocidad y precisión: El sistema puede comenzar a decodificar señales cerebrales y generar discurso dentro de un segundo del paciente que intenta hablar, una mejora significativa a partir del retraso de ocho segundos en un estudio anterior de 2023.
¿Qué es la inteligencia synthetic (AI)?

Sistema de IA (Kaylo Littlejohn, Cheol Jun Cho, et al. Nature Neuroscience 2025)
El exoesqueleto ayuda a las personas paralizadas a recuperar la independencia
Superar desafíos
Uno de los desafíos clave fue mapear datos neuronales para la producción del habla cuando el paciente no tenía vocalización residual. Los investigadores superaron esto mediante el uso de un modelo de texto a voz previamente capacitado y la voz previa a la lesión del paciente para completar los detalles faltantes.
Obtenga el negocio de Fox sobre la marcha haciendo clic aquí

Sistema de IA (Kaylo Littlejohn, Cheol Jun Cho, et al. Nature Neuroscience 2025)
Cómo funciona el chip del cerebro Neuralink de Elon Musk
Impacto y direcciones futuras
Esta tecnología tiene el potencial de mejorar significativamente la calidad de vida de las personas con parálisis y afecciones como ELA. Les permite comunicar sus necesidades, expresar pensamientos complejos y conectarse con sus seres queridos de manera más pure.
“Es emocionante que los últimos avances de la IA estén acelerando en gran medida a BCIS para el uso práctico del mundo actual en el futuro cercano”, dijo el neurocirujano UCSF Edward Chang.
Los siguientes pasos incluyen acelerar el procesamiento de la IA, hacer que la voz de salida sea más expresiva y explorar formas de incorporar variaciones de tono, tono y volumen en el discurso sintetizado. Los investigadores también tienen como objetivo decodificar las características paralingüísticas de la actividad cerebral para reflejar los cambios en el tono, el tono y el volumen.
Takeaways de Kurt’s Key
Lo realmente sorprendente de esta IA es que no solo traduce señales cerebrales en ningún tipo de discurso. Está apuntando al habla pure, utilizando la propia voz del paciente. Es como devolverles su voz, que cambia el juego. Ofrece una nueva esperanza para una comunicación efectiva y conexiones renovadas para muchas personas.
¿Qué papel crees que deberían desempeñar el gobierno y los organismos reguladores para supervisar el desarrollo y el uso de interfaces de computadora cerebral? Háganos saber escribiéndonos en Cyberguy.com/contact.
Haga clic aquí para obtener la aplicación Fox Information
Para obtener más consejos tecnológicos y alertas de seguridad, suscríbase a mi boletín gratuito de Cyberguy Report al dirigirse a Cyberguy.com/newsletter.
Hazle una pregunta a Kurt o cuéntanos qué historias te gustaría que cubramos.
Sigue a Kurt en sus canales sociales:
Respuestas a las preguntas de CyberGuys más informadas:
Nuevo de Kurt:
Copyright 2025 cyberguy.com. Reservados todos los derechos.