Hace no mucho tiempo crear una aplicación gráfica desde cero era una tarea que implicaba horas de trabajo, planificación detallada y una estructura de código sólida. Hoy, con las herramientas adecuadas y una idea clara, es posible tener algo funcional en cuestión de minutos.
Eso fue precisamente lo que me ocurrió cuando, con la ayuda de ChatGPT, desarrollé una pequeña aplicación tipo Paint utilizando Python. Quería comprobar, en la práctica, hasta dónde podía llegar el aporte de la inteligencia artificial en un proceso de desarrollo real. El resultado fue más que interesante: en menos de una hora tenía lista una aplicación con opciones de dibujo, selección de color, ajuste de grosor del lápiz y la posibilidad de guardar la imagen generada en distintos formatos.
Lo más llamativo no fue solo la rapidez, sino la forma en que lo logré. No escribí el código desde cero: simplemente fui pidiendo, paso a paso, lo que necesitaba. Primero la interfaz, luego la paleta de colores, después las herramientas para dibujar… Y así, con cada prompt bien formulado, la aplicación fue tomando forma.
Ahí entendí que el prompting, más que un truco para obtener respuestas es una nueva manera de plantear requerimientos. Cada instrucción que le di a la IA fue, en la práctica, un requerimiento funcional claro. “Crea una interfaz con estas características”,” agrega una herramienta para cambiar el grosor”, “permite guardar el resultado como imagen”. Nada de eso era improvisado: eran especificaciones que el modelo interpretó y transformó en código útil.
Esto cambia la forma en que entendemos el análisis de sistemas. Si antes era necesario un documento técnico exhaustivo, ahora un buen prompt puede cumplir una función similar: acortar la brecha entre la idea y la solución ejecutable. Por supuesto, esto no elimina la necesidad de metodologías formales, pero sí ofrece una vía ágil y efectiva para el desarrollo rápido o exploratorio.
Entonces, ¿qué significa programar hoy? Probablemente ya no se trata solo de escribir líneas de código, sino de saber formular preguntas adecuadas, estructurar ideas con claridad y traducir necesidades en instrucciones que la IA pueda comprender.
Eso no significa que todo lo que genera una IA sea perfecto. Aún es necesario aplicar criterio técnico: adaptar lo que se recibe, validar su funcionalidad y, sobre todo, comprender el porqué de cada decisión. La IA no conoce el negocio, ni prevé problemas futuros: solo responde a lo que le pedimos.
En el aula, este cambio ya se siente. Hay estudiantes fascinados con las nuevas herramientas, y otros que se preguntan si esto los dejará sin espacio. Pero la verdadera amenaza no es la IA: es quedarse en el paradigma anterior. Hoy, más que nunca, necesitamos formar desarrolladores que entiendan cómo colaborar con estas herramientas, sin dejar de pensar críticamente ni renunciar a su rol creativo.
La experiencia con esta pequeña app fue sencilla, pero significativa. Me dejó claro que estamos en un momento de transición, donde el rol del desarrollador se expande. Ya no basta con saber programar: hay que saber conversar con las máquinas.
Y si enseñamos eso, estaremos preparando a nuestros estudiantes no solo para usar herramientas de IA, sino para liderar su uso con responsabilidad, comprensión y propósito.
Una de las cosas más sorprendentes de esta experiencia fue notar lo poco que tuve que intervenir en el código generado. Las funciones eran operativas, coherentes con el lenguaje y cumplían con lo solicitado. Algunas veces fue necesario ajustar detalles menores, como el tamaño de la interfaz o el formato de guardado de la imagen, pero el grueso del trabajo fue automatizado.
Esto plantea una pregunta importante: si la IA puede hacer una parte considerable del trabajo técnico, ¿dónde queda el rol del desarrollador? Desde mi perspectiva, este cambio no elimina nuestra labor, sino que la reubica. El foco se traslada desde la ejecución hacia la definición del problema, la validación del resultado y la toma de decisiones estratégicas sobre el diseño de software.
En el contexto educativo, esto nos desafía a repensar nuestras metodologías. No basta con enseñar sintaxis o estructuras de datos. Ahora, es fundamental enseñar a dialogar con herramientas inteligentes, a evaluar lo que producen y a entender los límites éticos y técnicos de su uso.
Por ejemplo, una de las habilidades emergentes que más valor tendrá en los próximos años es la capacidad de escribir prompts efectivos. Es decir, de convertir ideas o necesidades en instrucciones claras y completas que la IA pueda interpretar correctamente. Esta habilidad combina pensamiento lógico, claridad comunicativa y comprensión técnica.
También debemos preparar a los estudiantes para que comprendan el valor de la autoría. Si bien una IA puede generar código, solo el desarrollador puede comprender profundamente el contexto, las implicancias del sistema, y la experiencia del usuario final. La IA es una herramienta, no un arquitecto.
Por otro lado, no podemos ignorar los riesgos. Al automatizar parte del desarrollo, también se corre el peligro de confiar ciegamente en los resultados. El código generado por IA puede tener errores, vulnerabilidades o malas prácticas si no se revisa con criterio. Por eso, el juicio humano sigue siendo indispensable.
Otro riesgo es la homogeneización del software. Si todos usamos los mismos modelos para generar soluciones, ¿qué pasa con la creatividad, la innovación y la diversidad de enfoques? Debemos asegurarnos de que la IA no apague la chispa creativa que caracteriza al buen desarrollador.
En mi experiencia docente, he comenzado a integrar estas herramientas como parte de las actividades prácticas. No como atajo, sino como complemento. Por ejemplo, pedirle al estudiante que use ChatGPT para generar una primera versión de código, pero luego que lo explique, lo refactorice y lo justifique. Así, no solo aprenden a usar la IA, sino también a dominar el proceso completo.
Este enfoque ha tenido buenos resultados. Los estudiantes se sienten motivados al ver resultados rápidos, pero también aprenden a no confiar ciegamente. Entienden que la IA es poderosa, pero que su verdadero valor está en cómo la usamos.
Finalmente, si pienso en el futuro del desarrollo de software, veo un escenario colaborativo. Donde humanos e inteligencias artificiales trabajan juntos: nosotros poniendo el contexto, el sentido y la ética; ellas aportando velocidad, acceso a conocimiento y eficiencia operativa.
Estamos en un momento clave. Si enseñamos a nuestros estudiantes a ser protagonistas en este nuevo entorno, no solo les damos herramientas técnicas, sino que les damos confianza para navegar el futuro con criterio, responsabilidad y visión crítica. Porque, al final del día, el software no se trata solo de máquinas que procesan instrucciones, sino de personas que resuelven problemas reales. Y ese, sigue siendo un trabajo profundamente humano.
0