2 de Junio, 2025

EnganchAI: Plataforma de visión artificial para la detección en tiempo real del engagement estudiantil en aulas presenciales

Mauricio Figueroa Colarte

Mauricio Figueroa Colarte

Docente Asociado e Investigador y Coordinador de Proyectos Tecnológicos en la sede Viña del Mar de Duoc UC

7 minutos de lectura

EnganchAI, cuyo nombre es un juego de palabras entre “Engagement” y “AI” (Artificial Intelligence), es una propuesta tecnológica original de autoría exclusiva de Mauricio Figueroa Colarte, quien concibió tanto la idea como el nombre del proyecto. Su desarrollo ha sido llevado a cabo en colaboración con un equipo de estudiantes, docentes e investigadores de la Escuela de Informática y Telecomunicaciones de la sede Viña del Mar de Duoc UC.

El propósito principal de EnganchAI es contribuir a mejorar el proceso de enseñanza-aprendizaje en entornos presenciales mediante la detección temprana del desinterés estudiantil a través de señales no verbales captadas en tiempo real.

Esta iniciativa surge como respuesta a una problemática reconocida en contextos educativos presenciales: la dificultad de los docentes para observar, interpretar y responder oportunamente a las señales de desconexión de los estudiantes, especialmente en aulas con alta densidad de alumnos. EnganchAI busca reducir esta brecha mediante un sistema basado en visión e inteligencia artificial que analiza las expresiones faciales y posturas corporales de los estudiantes, alertando al docente cuando se detectan patrones generalizados de desatención o frustración.

Actualmente, el proyecto se encuentra en fase experimental (nivel de madurez tecnológica TRL 4), validado en condiciones controladas de laboratorio. Durante esta fase, se ha trabajado con una arquitectura modular que integra cámaras IP, un motor de inferencia visual basado en redes neuronales convolucionales y una interfaz gráfica que entrega alertas e informes visuales al docente.

Arquitectura y metodología de desarrollo

El sistema EnganchAI fue diseñado bajo una metodología experimental aplicada, enfocada en la validación de la viabilidad técnica del sistema antes de su despliegue en aulas reales. La arquitectura del sistema contempla los siguientes componentes clave:

  • Captura de video en tiempo real mediante cámaras IP ubicadas estratégicamente en el aula.
  • Procesamiento de video con un pipeline de inferencia en dos etapas:
  • Detección de rostros mediante un modelo YOLOv8 especializado (WideFace).
  • Clasificación del nivel de engagement mediante un modelo YOLOv11 entrenado con un dataset personalizado que incluye expresiones faciales y posturas corporales.
  • Visualización e interfaz docente, que presenta barras de progreso con niveles agregados de engagement (engaged, bored, frustrated) y reportes post-clase con tendencias grupales.

Para el entrenamiento del sistema se utilizó una combinación de datasets públicos como DAiSEE, junto con un conjunto de datos generado en laboratorio, contextualizado en aulas físicas simuladas. Esta estrategia permitió abordar las limitaciones de representatividad del DAiSEE, originalmente diseñado para entornos virtuales.

Resultados preliminares y validación experimental

Los resultados obtenidos en laboratorio han sido alentadores. El sistema ha demostrado una precisión media (mAP@0.5) de 82.3% en la clasificación de engagement, con un recall del 88.1%, superando sistemas comparables como YOLOv8 + DAiSEE (mAP ~75%, según EmoAI Smart Classroom). El rendimiento operativo fue de 15–20 FPS en hardware estándar, con tiempos de inferencia por frame inferiores a 65 ms.

Adicionalmente, el sistema presentó una tasa de funcionamiento del 91% durante sesiones simuladas, y una encuesta aplicada a docentes participantes indicó un 84% de satisfacción respecto al valor pedagógico de las alertas en tiempo real para la toma de decisiones durante la clase.

No obstante, se identificaron ciertas limitaciones técnicas como caídas en la precisión en condiciones lumínicas adversas, lo que impulsa la necesidad de mejorar la robustez ambiental del modelo. Asimismo, se plantea como desafío futuro la incorporación de análisis multimodal (voz, interacción con materiales, contexto) para enriquecer la lectura emocional del aula.

Proyección e impacto esperado

El objetivo a mediano plazo es avanzar hacia una prueba piloto en aulas reales, profundizar la interoperabilidad con plataformas educativas (como sistemas LMS) y robustecer el dataset con mayor diversidad cultural y situacional. También se espera adaptar la interfaz a distintos perfiles docentes y tipos de aula (laboratorios, talleres, clases magistrales).

La propuesta fue recientemente aceptada como póster emergente en la conferencia internacional ITNG 2025 (Information Technology: New Generations) a realizarse en Las Vegas, lo que valida su potencial como innovación educativa a nivel global y abre la posibilidad de futuras colaboraciones con instituciones interesadas en avanzar hacia aulas inteligentes emocionalmente conectadas.

Consideraciones éticas y de privacidad

Desde sus inicios, EnganchAI incorporó principios de ética y privacidad en el diseño del sistema, aplicando prácticas como:

  • Anonimización facial de los datos capturados.
  • Cifrado de video e inferencia local para evitar transmisiones innecesarias.
  • Control de acceso y auditorías de uso.

Estas medidas están alineadas con las normativas chilenas e internacionales sobre protección de datos personales, asegurando un entorno seguro para estudiantes y docentes.

Conclusión

EnganchAI representa una apuesta por una educación más afectiva y efectiva, basada en evidencia y tecnología contextualizada. Su aporte radica no solo en el uso de inteligencia artificial, sino en su enfoque pedagógico, ético y escalable. En un escenario donde el conocimiento se convierte en un bien crítico, innovaciones como esta permiten fortalecer el vínculo humano en el aula y promover aprendizajes significativos para todos los estudiantes.

Referencias bibliográficas

Abedi, A., & Khan, S. S. (2021). Improving state-of-the-art in detecting student engagement with ResNet and TCN hybrid network. 2021 18th Conference on Robots and Vision (CRV). IEEE.

Abedi, A., & Khan, S. S. (2022). Detecting disengagement in virtual learning as an anomaly using temporal convolutional network autoencoder.

Abedi, A., & Khan, S. S. (2023). Affect-driven ordinal engagement measurement from video. Multimedia Tools and Applications, 83, 24899–24918.

Abedi, A., Thomas, C., Jayagopi, D. B., & Khan, S. S. (2023). Bag of states: A non-sequential approach to video-based engagement measurement. Research Square.

Ai, X., Sheng, V. S., Li, C., & Cui, Z. (2022). Class-attention Video Transformer for engagement intensity prediction.

Batra, S., Wang, H., Nag, A., Brodeur, P., Checkley, M., Klinkert, A., & Dev, S. (2022). DMCNet: Diversified model combination network for understanding engagement from video screengrabs. Systems and Soft Computing, 4, 200039.

Gupta, A., D’Cunha, A., Awasthi, K., & Balasubramanian, V. (2016). DAiSEE: Towards user engagement recognition in the wild.

Gupta, A., D’Cunha, A., Awasthi, K., & Balasubramanian, V. (2022). DAISEE. datasets@activeloop.ai.

Kamath, A., Biswas, A., & Balasubramanian, V. (2016). A crowdsourced approach to student engagement recognition in e-learning environments. 2016 IEEE Winter Conference on Applications of Computer Vision (WACV). IEEE.

Khan, S. S., Abedi, A., & Colella, T. (2022). Inconsistencies in the definition and annotation of student engagement in virtual learning datasets: A critical review.

Kumar, P., Vedernikov, A., & Li, X. (2024). Measuring non-typical emotions for mental health: A survey of computational approaches.

Malekshahi, S., Kheyridoost, J. M., & Fatemi, O. (2024). A general model for detecting learner engagement: Implementation and evaluation.

Salam, H., Celiktutan, O., Gunes, H., & Chetouani, M. (2022). Automatic context-driven inference of engagement in HMI: A survey.

Selim, T. (s.f.). Engagement Detection Using Hybrid EfficientNetB7 Together With TCN, LSTM, and Bi-LSTM (DAiSEE and VRESEE datasets).

Selim, T., Elkabani, I., & Abdou, M. A. (2022). Students engagement level detection in online e-learning using hybrid EfficientNetB7 together with TCN, LSTM, and bi-LSTM. IEEE Access, 10, 99573–99583.

Singh, M., Hoque, X., Zeng, D., Wang, Y., Ikeda, K., & Dhall, A. (2023). Do I have your attention: A large scale engagement prediction dataset and baselines.

Sinha, V. B., Rao, S., & Balasubramanian, V. N. (2018). Fast Dawid-Skene: A fast vote aggregation scheme for sentiment classification.

Deja tu comentario

Nombre y Apellido *

Guardar mi nombre y email en este navegador para la próxima vez que desee comentar.

0 comentarios

Otros artículos de interés

NAVEGAR OPINIÓN

1 de Junio, 2025

Ceremonia de agradecimiento al Consejo Directivo Saliente 2012-2025. Discurso del expresidente del Directorio de Duoc UC 2012-2025, Patricio Donoso Ibáñez.

Estimado Prorrector y presidente del Consejo Directivo de Duoc UC Francisco Gallego, estimado Rector de Duoc UC Carlos Díaz, estimado Secretario General de la Universidad Católica Juan Eduardo Ibáñez, estimados antiguos y nuevos miembros del Consejo Directivo, estimadas autoridades de Duoc UC, querida comunidad de Duoc UC, distinguidos invitados[1]. Es para mí un honor y […]

1 de Junio, 2025

Ceremonia de agradecimiento al Consejo Directivo Saliente. Discurso del presidente del Directorio de Duoc UC Francisco Gallego Yáñez

Muy buenos tardes a todas y todos: Quiero saludar con especial afecto al rector Carlos Díaz de Duoc UC, a las autoridades académicas y administrativas, a los docentes, estudiantes, colaboradores y, en particular, al Consejo Directivo saliente que hoy despedimos[1]. Estamos aquí no solo para marcar un cierre institucional, sino para reconocer un ciclo de […]

25 de Mayo, 2025

Mi Amigo Gepeté: Cómo la IA me permitió acompañar a mis estudiantes más allá del aula

A veces me pasa que, mientras tomo once o camino apurado entre clases, me llegan mensajes de estudiantes que no alcancé a ver en la jornada: “Profe, ¿cómo se hacía el ejercicio del File 7C?” “¿Está bien escrito esto?” “¿Me puede corregir este audio antes de enviarlo?” Muchas dudas quedaban en el aire: correos, tareas […]