La apuesta tecnológica que pretende reducir las brechas educativas en Colombia

  • Juan Esteban Mora Zarate (Participante)
  • Garzon Castro, C. L. (Participante)
  • Jorge A. Castellanos Rivillas (Participante)

Actividad: OtrosArtículo de periódico o revista sobre resultados de investigación o docencia

Descripción

En Colombia, más de 480.000 personas enfrentan una discapacidad auditiva, pero el acceso a una educación inclusiva en Lengua de Señas Colombiana (LSC) sigue siendo muy limitado. Actualmente, solo hay un intérprete por cada 1.152 personas sordas, y apenas el 36% de ellos trabaja en educación básica.
En este contexto, la tecnología puede convertirse en una aliada crucial. Por eso, un equipo de investigadores que hacen parte del grupo de investigación CAPSAB (Control y Automatización de Procesos - Universidad La Sabana), conformado por los profesores de la Facultad de Ingeniería Claudia Lorena Garzón Castro, Jorge Alberto Castellanos y el estudiante de la maestría en Diseño y Gestión de Procesos Juan Esteban Mora Zárate, han desarrollado un sistema de visión computacional, que combina inteligencia artificial y aprendizaje automático, como herramienta educativa. Este sistema fue implementado en un robot humanoide para enseñar parte del vocabulario básico que se aprende en la LSC, en este caso específico, las señas correspondientes a once colores.
Los resultados que inicialmente quedaron registrados en la publicación Learning signs with NAO: humanoid robot as a tool for helping to learn Colombian Sign Language son prometedores: el sistema alcanza precisiones superiores al 90% y podría transformar la forma en que se enseña esta lengua en el país.
“El proyecto fue concebido en impactar a la población que quiera aprender la Lengua de Señas Colombiana, no sólo se enfocó en las personas con hipoacusia. Otro aspecto que se contempló al plantear el proyecto fue ¿cómo motivar a las personas en aprender este lenguaje?, por este motivo, se decidió usar un robot NAO para que interactúe con el usuario”, explica la profesora Claudia Lorena Garzón Castro.
La herramienta donde se implementó esta innovación es el robot NAO H25 V6 que, con su capacidad de interacción gestual, no solo observa y reconoce las señas hechas por el usuario, sino que también responde con movimientos semejantes a los de un humano y activación de los LED (Diodos Emisores de Luz, por sus siglas en inglés) ubicados en los ojos, generando una experiencia interactiva de aprendizaje. En ese orden de ideas, la actividad propuesta permite al usuario practicar 11 señas de colores mediante dos modos: selección manual o aleatoria, lo que fomenta tanto la autonomía como el juego en el aprendizaje.
Para reconocer las señas, el equipo de investigadores entrenó una red neuronal recurrente del tipo LSTM (memoria a largo y corto plazo), con datos obtenidos a través de la herramienta MediaPipe, que extrae 54 coordenadas del torso y la mano del usuario a partir de video. Estas coordenadas alimentan la red neuronal, capaz de identificar en tiempo real cuál de las 11 señas de color está realizando la persona.
Período4 jun. 2025

Focos Estratégicos

  • Sociedad Digital y Competitividad​ (SocietalIA)