26 de Enero, 2026

Evaluar para cuidar: confianza, evidencia y humanidad en la era de la IA

Equipo Editorial Observatorio

Equipo Editorial Observatorio

7 minutos de lectura

Educar es una tarea compleja porque se parece a la vida: ocurre en la intersección de historias personales, oportunidades desiguales, emociones, esfuerzos silenciosos y expectativas públicas. En ese contexto, evaluar no es un trámite posterior ni un corte de caja al final del semestre. Evaluar es un acto ético: una forma de decirle al estudiante me importa lo que estás aprendiendo y, a la vez, una manera responsable de responderle a la sociedad: esto que declaramos aprendizaje tiene fundamento.

Pero la época cambió de forma abrupta. Hoy existe abundancia de información y, al mismo tiempo, una creciente cultura de la sospecha: familias, empleadores y comunidades necesitan creer y verificar que las instituciones educativas cumplen lo que prometen. Ese giro social ha empujado una exigencia decisiva: ya no basta con entregar un título ya que se pide evidencia de progreso, semestre a semestre, competencia a competencia, con trazabilidad y sentido. Y justo cuando esa demanda se vuelve ineludible, irrumpen tecnologías capaces de producir textos, respuestas y soluciones a una velocidad que descoloca la evaluación tradicional.

Los datos ya no permiten mirar a otro lado. El reporte HEPI–Kortext (Reino Unido) muestra que el uso estudiantil de IA generativa se ha masificado: en su encuesta 2025, 92% declara usar IA de algún modo y 88% afirma haberla usado en evaluaciones y con un 18% que admite incluir texto generado directamente en su trabajo (HEPI & Kortext, 2025). Este no es un problema de algunos: estamos ante un cambio de ecosistema. La pregunta real ya no es si la IA entrará al aula: ya entró. La pregunta es si nuestras evaluaciones seguirán siendo un camino legítimo hacia el aprendizaje… O será un teatro de evidencias frágiles.

Frente a las tecnologías disruptivas, la reacción instintiva suele ser defensiva: prohibir, perseguir, detectar. Sin embargo, la historia de la educación muestra que cuando la evaluación se reduce al control, el aprendizaje se reduce a la estrategia para sobrevivir. Es decir, se aprende a rendir, no a comprender. Por eso, la disrupción tecnológica nos obliga a recuperar el núcleo humanista de la evaluación: evaluar para formar criterio, no para atrapar faltas.

Aquí resulta iluminador un viejo hallazgo que no envejece: Black y Wiliam mostraron hace décadas que fortalecer la retroalimentación frecuente, es decir, la evaluación formativa, produce mejoras significativas en el aprendizaje (Black & Wiliam, 1998). Y Hattie y Timperley recordaron que el feedback es poderoso, pero su efecto depende de su calidad y propósito: puede impulsar o bloquear el progreso (Hattie & Timperley, 2007). Dicho de otro modo: si la IA acelera la producción, nuestra tarea es acelerar la comprensión. Y eso se logra con evaluación formativa bien diseñada, no con más castigo.

En los próximos años, la evaluación en educación superior tenderá a moverse desde el producto final hacia evidencias del proceso de aprender: borradores, iteraciones, bitácoras de decisiones, defensas orales breves, análisis de errores, justificativos de por qué se eligió un camino y no otro. En un mundo donde un texto puede generarse en segundos, la pregunta evaluativa se vuelve más fina: ¿qué comprendes, cómo decides, cómo verificas, cómo mejoras, qué estándar profesional aplicas, qué límites éticos reconoces?

Los reguladores ya están empujando esta dirección. Teqsa (Australia) publicó un recurso orientado a poner en marcha la reforma de la evaluación en tiempos de IA, compilando racionales, ventajas y desventajas de distintos enfoques, y subrayando la necesidad de decisiones sistémicas, no parches aislados (Teqsa, 2025). La señal es clara: la integridad no se sostiene solo con detectores ya que se sostiene con diseño curricular, diversidad de evidencias y juicios confiables.

Para asegurar evidencias auténticas de aprendizaje en educación superior, el camino comienza con un consenso docente y una coherencia curricular: un plan de estudios entendido como trayecto intencional de competencias, donde la comunidad académica comparte objetivos, niveles de logro y criterios, transformando la evaluación en un sistema continuo de acompañamiento y no en eventos aislados; a la vez, se requiere una evaluación articulada entre asignaturas para competencias compartidas, mediante tareas integradas, rúbricas comunes e hitos semestrales que acumulen evidencias de progreso y otorguen sentido al esfuerzo del estudiante. En esa línea, la evaluación integradora y auténtica conectada con el trabajo real, cobra especial relevancia, porque en tiempos de IA no se trata de evitar herramientas sino de verificar calidad profesional, capacidad de justificar decisiones, validar resultados y asumir responsabilidad (Wiggins, 1990). Asimismo, la evaluación diagnóstica permite conocer el punto de partida y estimar el valor agregado formativo, haciendo visibles brechas también tecnológicas para enfrentarlas con apoyos pertinentes; finalmente, se vuelve clave diversificar instrumentos y avanzar hacia una evaluación multiagente, donde autoevaluación, coevaluación y heteroevaluación formen el juicio del estudiante y su capacidad de usar retroalimentación, de modo que si la IA puede proponer respuestas, la persona aprenda a evaluarlas críticamente (Nicol & Macfarlane-Dick, 2006).

La Unesco propone una visión centrada en el ser humano para la IA generativa, advirtiendo vacíos regulatorios, riesgos de privacidad y la necesidad de desarrollar capacidades institucionales para un uso responsable (Unesco, 2023). Esta advertencia tiene una traducción concreta para la evaluación: no basta con declarar políticas, hay que crear condiciones de práctica segura, equitativa y transparente.

Y hay otra presión, igual de importante: el mundo laboral se reconfigura. El World Economic Forum insiste en que los desajustes de habilidades pueden ampliarse y que las estrategias de formación continua y reconversión serán cruciales en los próximos años (WEF, 2025). Si el trabajo exige aprendizaje permanente, la evaluación en la educación superior no puede limitarse a certificar el pasado: debe preparar para el futuro. Ahí conecta directamente la idea de Boud sobre evaluación sostenible: evaluar también es preparar al estudiante para autoevaluarse y seguir aprendiendo más allá del curso (Boud, 2000).

En esta época, evaluar es un modo de cuidar: cuidar el aprendizaje del estudiante, cuidar la confianza social, cuidar la dignidad del título y cuidar la ética profesional del docente. Las tecnologías disruptivas nos desafían, sí, pero también nos ofrecen una oportunidad: volver a poner a la persona en el centro. Si aceptamos que la IA puede producir respuestas, entonces nuestra misión es más nítida: formar personas capaces de comprender, decidir, justificar, crear y actuar con responsabilidad. La evaluación bien hecha, articulada, auténtica y formativa, es el camino para que esa promesa sea verificable y, sobre todo, profundamente humana.

Nota: Respecto al tema del impacto de las nuevas tecnologías en las formas de evaluar aprendizaje en la educación superior se utilizaron las herramientas IA ChatGPT, Perplexity y Claude. La selección de ideas, conexión entre estas y la redacción final es nuestra.

Referencias

Black, P., & Wiliam, D. (1998). Assessment and classroom learning. Assessment in Education: Principles, Policy & Practice, 5(1), 7–74.

Boud, D. (2000). Sustainable assessment: Rethinking assessment for the learning society. Studies in Continuing Education, 22(2), 151–167.

Hattie, J., & Timperley, H. (2007). The power of feedback. Review of Educational Research, 77(1), 81–112.

HEPI, & Kortext. (2025). Student Generative AI Survey 2025 (HEPI Policy Note 61). Higher Education Policy Institute.

Nicol, D. J., & Macfarlane-Dick, D. (2006). Formative assessment and self-regulated learning: A model and seven principles of good feedback practice. Studies in Higher Education, 31(2), 199–218.

OECD. (2023). Micro-credential innovations in higher education: Who, what and why?

Teqsa. (2025). Enacting assessment reform in a time of artificial intelligence. Tertiary Education Quality and Standards Agency.

Unesco. (2023). Guidance for generative AI in education and research.

World Economic Forum. (2025). The Future of Jobs Report 2025. World Economic Forum.

Wiggins, G. (1990). The case for authentic assessment. Practical Assessment, Research, and Evaluation, 2(1), Article 2.

loader

Deja tu comentario

Nombre y Apellido *

Guardar mi nombre y email en este navegador para la próxima vez que desee comentar.

0 comentarios

Otros artículos de interés

NAVEGAR LA EDITORIAL

9 de Marzo, 2026

La fuerza de la complementariedad y el camino hacia la equidad

Cada 8 de marzo se ofrece a la sociedad chilena una ocasión de memoria, reflexión y responsabilidad. No es solo una fecha conmemorativa ni un gesto simbólico inscrito en el calendario internacional. Es, ante todo, un recordatorio de las valientes y dolorosas movilizaciones femeninas que marcaron la historia en la búsqueda de condiciones laborales más […]

2 de Marzo, 2026

La calidad como trascendencia: crónica de la excelencia en Duoc UC: 1968–2025

Hay palabras que el tiempo desgasta y el concepto calidad es una de ellas. Se repite en folletos, en discursos, en informes; a veces suena a trámite, a casilla marcada, a sello de goma. Pero cuando se recorre la historia de Duoc UC, desde aquel 16 de noviembre de 1968 en que se aprueba su […]

23 de Febrero, 2026

Cuando el aprendizaje se vuelve solo transmisión de contenido, la comunidad se rompe

Durante décadas la educación se dejó seducir por una promesa simple: si logramos empaquetar el conocimiento en buenos materiales (manuales, cápsulas, plataformas, videos) entonces aprender será, sobre todo, acceder a estos. Pero la cultura digital, con su velocidad, su sobreabundancia informativa y sus vínculos mediados por pantallas, nos está mostrando el límite de esa lógica. […]