La inteligencia artificial (IA) generativa ha irrumpido con una velocidad tal que ha puesto en jaque la certidumbre evaluativa de los sistemas educativos. Desde fines del 2022, docentes e instituciones, han constatado que los estudiantes pueden delegar a modelos IA la redacción de informes, la solución de problemas e incluso el desarrollo de código, sin ejercer los procesos de verificación crítica ni la contrastación de fuentes que constituyen la médula del aprendizaje profundo (Davidson, 2025). La situación también es visible en la educación técnico‑profesional (ETP), donde el acto de aprender haciendo, ese tránsito entre el saber y el saber hacer, es la razón de ser de toda certificación o título.
Es innegable que las tecnologías de inteligencia artificial han comenzado a penetrar con fuerza en la elaboración de productos intelectuales cuyo propósito pedagógico radica en el desarrollo de competencias superiores. Hoy observamos cómo, en cada una de las disciplina o técnicas, las actividades teóricas, los informes de avance o las evaluaciones escritas pueden ser fácilmente delegadas a modelos generativos, poniendo en riesgo la esencia misma del aprendizaje crítico y reflexivo.
En el ámbito de Administración, un estudiante podría solicitar a una IA la redacción íntegra de un plan de negocios, sustituyendo la investigación de mercado y la validación de supuestos por un documento impecable, pero ajeno a su propio razonamiento. Del mismo modo, en las carreras de Salud, un alumno o alumna de Enfermería tiene la posibilidad de generar un estudio de caso clínico completo, con diagnóstico y plan de cuidados incluidos, sin haber transitado el análisis clínico que sustenta tales decisiones.
La tendencia se replica en Gastronomía: el aprendiz de chef ya no necesita bucear en recetarios ni experimentar para diseñar un menú equilibrado, ya la IA proporciona fichas técnicas, valores nutricionales, entre otras, en cuestión de segundos. En Turismo, itinerarios patrimoniales, guías históricas o planes de marketing territorial aparecen con un par de clics, relegando la investigación de campo y la interacción con comunidades locales a un segundo plano.
En Ingeniería, los asistentes de código (GitHub Copilot, ChatGPT o equivalentes) facilitan la resolución de problemas algorítmicos y la generación de simulaciones estructurales. Incluso en Mecánica o Civil se obtienen cálculos automatizados sin comprender a cabalidad los principios físicos involucrados. Las carreras ligadas a Recursos Naturales no quedan al margen: la IA sintetiza informes ambientales, mapea riesgos y elabora planes de manejo forestal combinando bases de datos preexistentes, minimizando la intervención analítica del estudiante. Finalmente, en Diseño y Comunicaciones, las herramientas generativas producen bocetos, logotipos, campañas publicitarias e incluso crónicas periodísticas con sorprendente solvencia estilística, desplazando el proceso creativo humano a la mera revisión superficial.
Todos estos ejemplos revelan una constante: incluso en itinerarios formativos eminentemente prácticos, existe una dimensión intelectual como planes, textos, diseños, códigos, reportes que son susceptible de externalizarse a la inteligencia artificial. Sin una mediación docente rigurosa y un discernimiento ético por parte del estudiante, presentar tales productos como propios significa eludir deliberadamente el trayecto cognitivo que las actividades académicas buscan cultivar: indagación autónoma, pensamiento crítico y apropiación significativa del saber disciplinar.
Corresponde, por tanto, repensar las estrategias de evaluación, reforzar las instancias presenciales de demostración de competencias y promover una cultura académica donde la IA sea un recurso de apoyo y no un atajo en el desarrollo integral del futuro profesional técnico.
La IA es un hecho cierto y nadie duda que tendremos que aprender a convivir con este instrumento y a usarla para potenciar nuestras capacidades adquiridas. También sabemos que su uso será creciente en todo empleo futuro, y que quienes no la dominen, tendrán un efecto muy negativo en su empleabilidad. La cuestión es ¿cómo logramos que todo estudiante aprenda a utilizar diestramente la herramienta IA, y que no disminuya su capacidad de aprender y dominar probadamente una disciplina o una técnica? Ambos saberes son esenciales para el futuro: IA y el dominio de un saber o técnica específico.
¿Cómo han reaccionado, en términos generales, algunos países? Su foco son los estudiantes (primaria, secundaria y superior) y no se oponen a que utilicen IA, pero regulada, para que no dañe la formación intelectual básica y progresiva de estos.
China: mano dura y alfabetización digital
El Ministerio de Educación chino dispuso en 2025 la prohibición del uso independiente de IA generativa en la primaria y estableció sanciones severas para quien la emplee con fines fraudulentos en niveles superiores, equiparando tal acción al plagio (Wong Liu, 2025). Paralelamente, durante el gaokao las grandes tecnológicas desactivaron temporalmente sus chatbots, mientras sistemas biométricos vigilaban cualquier intento de colusión (Davidson, 2025). China, así, combina una estrategia de control estricto con programas de alfabetización digital intensos que buscan formar criterio en el empleo ético de la IA.
Estados Unidos: rediseñar la prueba, no negar la herramienta
Sin una política federal uniforme, las instituciones norteamericanas han optado por devolver protagonismo a las evaluaciones presenciales. Profesores de informática, como MacKellar en St. John’s University, han retomado exámenes de programación manuscritos para constatar comprensión de algoritmos (Gecker Martínez, 2023). En humanidades, se privilegian ensayos redactados en aula y preguntas que requieren reflexiones sobre experiencias personales. La premisa es inequívoca: si la tarea puede resolverse con un prompt, la tarea debe repensarse.
Singapur: equilibrio entre innovación y ética
El Ministerio de Educación singapurense sostiene que, al igual que la calculadora no eximió al estudiante de dominar las operaciones básicas, la IA no debe privarlo de desarrollar pensamiento crítico (Chan Tan, 2023). Las instituciones técnico‑profesionales del país combinan proyectos aplicados, defensas orales y prácticas de laboratorio, de modo que el estudiante sea evaluado en múltiples dimensiones. Además, se promueve declarar explícitamente cualquier utilización de IA, fomentando la transparencia académica.
Corea del Sur: libros de texto inteligentes y rol docente
Corea del Sur ha introducido libros de texto digitales con IA adaptativa para personalizar el aprendizaje (Guerra Fernández, 2025). Sin embargo, subraya que esa revolución tecnológica debe ser liderada por el docente, quien preserva la responsabilidad de verificar que la IA complemente, y no suplante, la construcción del conocimiento. Se enfatiza la precaución con los alumnos y alumnas más jóvenes y la prohibición del uso de IA durante exámenes oficiales.
Suiza: la fortaleza del modelo dual
La formación dual suiza que combina aula y empresa ofrece un blindaje natural frente a los atajos digitales: gran parte de la evaluación ocurre en entornos laborales reales. No obstante, la Secretaría de Educación, Investigación e Innovación publicó en 2024 lineamientos para que las escuelas enseñen a los aprendices a usar IA de manera productiva sin suplantar evidencias (Secretaría de Educación, Investigación e Innovación [SERI], 2024). En consecuencia, los exámenes finales de oficio incorporan ahora demostraciones prácticas supervisadas adicionales.
Alemania: verificación procesual y cultura Meister
Las Berufsschulen refuerzan los exámenes orales y la defensa metodológica de proyectos. Experimentos en la Universidad Técnica de Múnich demostraron que estudiantes que dependieron excesivamente de la IA fracasaron al explicar sus decisiones en entrevistas individuales (Meyer Schmidt, 2024). La tradición alemana de valorar el proceso, no solo el producto, se convierte en antídoto contra la automatización acrítica.
Japón: uso limitado y responsable
Las directrices del Ministerio de Educación japonés autorizan un uso supervisado de IA, siempre que su intervención quede debidamente citada y se prohíba en evaluaciones formales (Kurokawa Yamamoto, 2023). La estrategia incluye pilotos en escuelas y universidades para medir impactos, subrayando la importancia de preservar las habilidades esenciales de escritura y resolución de problemas.
Estrategias emergentes para validar el “aprender haciendo” en instituciones TP
- Evaluación práctica reforzada. Incrementar el peso de actividades observables: prácticas en talleres, simulaciones clínicas, cocinas didácticas, laboratorios de programación controlados.
- Defensa oral obligatoria. Complementar cada entrega con una entrevista breve donde el estudiante justifique procesos y decisiones. La explicación revela comprensión genuina.
- Diseño de tareas auténticas. Plantear problemas situados en contextos reales del estudiante, imposibles de responder con plantillas genéricas de IA.
- Evidencias de proceso. Exigir bitácoras, capturas de versiones, diarios reflexivos que muestren iteraciones y metacognición.
- Uso ético y declarado de IA. Enseñar a citar la herramienta como apoyo, nunca como autor. Formar en detección de sesgos y verificación de datos.
- Políticas institucionales coherentes. Incluir la IA en reglamentos de integridad académica, definir sanciones claras y capacitaciones permanentes.
El papel insustituible del docente
Lejos de ser desplazado, el profesorado se vuelve eje articulador de una cultura de aprendizaje riguroso. Su función se orienta a diseñar experiencias significativas, guiar la interacción responsable con la IA y corroborar el desarrollo de competencias. Como advierte Unesco, se trata de proteger la agencia humana en la educación (Unesco, 2023).
La inteligencia artificial constituye simultáneamente un desafío apremiante y una oportunidad fecunda para la educación técnico‑profesional. Las instituciones que consigan armonizar la audacia innovadora con prácticas de evaluación genuinas y rigurosas sostendrán la confianza social depositada en sus certificaciones y titulaciones. El propósito no es proscribir la IA ni derivar en un ludismo académico, sino integrarla como aliada estratégica que intensifique los procesos formativos sin eclipsar el esfuerzo intelectual y manual del estudiante. Conviene, por tanto, asegurar que cada egresado no solo domine la técnica y la disciplina que su título acredita, sino que incorpore, como competencia transversal, el uso especializado, ético y orientado al bien común de la IA. Tal exigencia constituye un mandato ético impostergable.
Nota: Se utilizó las IA ChatGPT, Gemini 2.5 pro y Perplexity para el análisis profundo de la bibliografía y así obtener información de relevancia para el contenido de la editorial.
Referencia y bibliografía
Chan Tan, C. C. (2023, 7 febrero). Students, teachers will learn to properly use tools like ChatGPT. The Straits Times.
Davidson Williams, H. (2025, 9 junio). Chinese tech firms freeze AI tools in crackdown on exam cheats. The Guardian.
Gecker Martínez, J. (2023, 3 agosto). Chatbot bans: Colleges revert to paper exams in effort to create ChatGPT‑proof assignments. AP News.
Guerra Fernández, E. (2025, 12 marzo). El mundo se fija en Corea del Sur y sus libros de texto con IA. El País.
Kurokawa Yamamoto, T. (2023, 4 julio). Japón elabora directrices sobre el uso de inteligencias artificiales en los colegios. Agencia EFE.
Meyer Schmidt, L. (2024). AI and Assessment: Insights from Technical University of Munich. Journal of Vocational Education.
Secretaría de Educación, Investigación e Innovación [SERI]. (2024). Lineamientos para el uso responsable de IA en la formación profesional.
Sotnikova Chávolla, A., Petrova Vega, S., & Régin‑Boisdeffre, P. (2024). Could ChatGPT earn a university degree? Assessing vulnerability of higher education to AI assistants. Proceedings of the National Academy of Sciences.
Unesco. (2023). Guidance for generative AI in education and research.
Ricardo Miranda
Muy buen artículo