Estudiantes de la Universidad Continental crean sistema para entender lengua de señas usado por personas sordas
Lima, Mar.12,2026.- ¿Cómo haría usted para entender un mensaje en lengua de señas que suele ser usado por personas sordas? Pues, podría hacer uso del NeuroSign, una solución creada por universitarios peruanos para que cualquier persona que no sepa lengua de señas pueda entender este tipo de mensajes de forma clara e inmediata.
NeuroSign es capaz de traducir el lenguaje de señas a voz en tiempo real, proyectándolo como un holograma dentro de una estructura piramidal de acrílico, sostienen sus creadores, Néstor Ramos y Angie Herrera, estudiantes de Ingeniería Industrial e Ingeniería Mecatrónica de la Universidad Continental, respectivamente.
“Miles de personas con discapacidad auditiva o del habla tienen muchas dificultades para comunicarse con quienes no comprenden la lengua de señas. Esto afecta su acceso a la educación, al trabajo y la participación social, generando una exclusión silenciosa que la tecnología puede y debe ayudar a derribar. Con esa misión desarrollamos NeuroSign”, sostiene Angie Herrera.
“Mediante el uso de visión artificial y aprendizaje automático, NeuroSign emplea MediaPipe y TensorFlow Lite para reconocer gestos captados por una cámara, interpretarlos mediante inteligencia artificial y traducirlos en mensajes audibles de fácil entendimiento”, puntualiza Néstor Ramos.
Según Néstor Ramos, NeuroSign surgió de una experiencia personal: “Estando en una tienda se me acercó una persona que trató de comunicarse conmigo con lengua de señas, pero yo no le entendía. Lo único que pude hacer era esperar a que llegara su amistad para entender lo que necesitaba”. Tiempo después, participaron en el programa FellowShip del FabLab de la Universidad Continental en donde tuvieron la oportunidad de desarrollar esta solución para responder a la limitación vivida en aquella tienda.
NeuroSign fue validado a través de pruebas con usuarios, análisis de usabilidad y simulaciones persona-máquina, demostrando que puede operar de forma autónoma y portátil, incluso en entornos públicos o educativos.
El dispositivo destaca por su accesibilidad y escalabilidad, traducción automática de señas a voz, proyección holográfica en tiempo real, adaptabilidad a distintos idiomas gracias a la IA y uso sin conexión ni intermediarios.
“Su propósito es convertir la comunicación en un derecho accesible para todos, sin depender de intérpretes, aplicaciones móviles o conexión a internet”, sostuvo Néstor Ramos.

Leave a Comment