¿Qué pasaría si pudieras decir una palabra sin emitir sonido y, Alguien del otro lado la oyera con tu propia voz? Esa escena, que parece de ciencia ficción, acaba de dar un paso muy concreto hacia la vida diaria. Un equipo de la Universidad de Ciencia y Tecnología de Pohang, en Corea del Sur, presentó un hallazgo que apunta justo a ese mecanismo: un collar de silicona con sensores, una minicámara y un modelo de inteligencia artificial capaz de interpretar palabras que no se pronunciaron en voz alta.
La investigación, liderada por el profesor Sung-Min Park y publicada en la revista Cyborg and Bionic Systems, revela una oportunidad clara: devolver una voz más natural a personas con enfermedades de la laringe y abrir un canal de comunicación en lugares donde los micrófonos fallan por ruido o directamente no se pueden usar.

La pieza clave no está en la boca, sino en el cuello. Incluso cuando una persona articula en silencio, la piel y los músculos del cuello se mueven. Ese cableado físico deja un rastro. El collar lo registra y la IA traduce ese patrón en palabras. Además, una minicámara sigue marcas de referencia sobre la silicona en tiempo real. Y un algoritmo, un sistema de corrección automática, compensa si el collar quedó un poco corrido. Ese interruptor digital evita que la lectura pierda precisión por un simple cambio de colocación.
Del movimiento del cuello a una voz reconocible
Después, los patrones captados se envían a un modelo de IA. Esa central identifica qué palabra fue articulada y la manda a un sistema de texto a voz. El resultado se transmite en tiempo real como audio continuo al receptor.
El dato más llamativo es que esa voz sintetizada puede personalizarse con menos de diez minutos de grabaciones del usuario. Así, el sistema no responde con un tono robótico, sino con una voz parecida a la real, incluso con rasgos de entonación.
En las pruebas, el dispositivo trabajó con las 26 palabras del alfabeto fonético de la OTAN, pensado para comunicarse en condiciones adversas. Allí alcanzó una precisión del 85,8% y mantuvo una relación señal-ruido de hasta 33,75 dB en ambientes de unos 90 decibelios, un nivel comparable al de una obra o una fábrica.
Esa mejora importa porque tecnologías anteriores, como la EMG (electromiografía, lectura eléctrica del músculo) o la EEG (electroencefalografía, lectura de actividad cerebral), suelen requerir equipos voluminosos, geles o condiciones de laboratorio. Este collar, en cambio, es reutilizable, manos libres y mucho menos invasivo.
La aplicación práctica y sus límites
Para una persona laringectomizada, la diferencia puede ser enorme. Frente a la electrolaringe tradicional, que suele generar un sonido metálico y obliga a usar un dispositivo externo, este sistema promete una voz más cercana a la propia y sin ocupar las manos También abre una puerta en fábricas, obras, bibliotecas, cines o situaciones de emergencia. Allí donde el ruido tapa todo o el silencio es obligatorio, el collar funciona como un puente: capta el movimiento, no el sonido.
Por ahora, el sistema tiene límites claros. Solo reconoce un vocabulario predefinido de 26 palabras y su precisión puede caer hasta 39,72% si la persona camina o mueve mucho la cabeza. Los investigadores ya trabajan en ampliar ese repertorio y mejorar la compensación del movimiento corporal.
La idea, de fondo, es simple y potente: cuando la voz ya no puede salir por la puerta principal, la tecnología busca otra entrada. Y en este caso, esa entrada está en el cuello.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.











