Uso Ético y Efectivo de la Inteligencia Artificial Generativa en la Educación Superior: Una Perspectiva desde la Informática

Juan Carlos Rivas Saldaña, Docente
6 a 8 minutos

El desafío de la IA generativa en la educación superior

La inteligencia artificial generativa (IA Gen) está transformando aceleradamente el panorama de la educación superior. En pocos meses, herramientas como ChatGPT, Claude, Copilot, Gemini y otras se han integrado a la vida académica cotidiana, modificando la forma en que estudiantes y docentes construyen el aprendizaje, se relacionan con la escritura y abordan la resolución de problemas.

En el ámbito de la informática, donde la creatividad y la precisión técnica son esenciales, estas herramientas representan un cambio de paradigma. Más que obtener respuestas correctas, la educación superior busca desarrollar pensamiento crítico, capacidad de síntesis, criterio ético y autonomía profesional (Center for Teaching Innovation, Cornell University, 2024). La integración acrítica de la IA puede debilitar estas competencias, pero un uso ético y reflexivo también puede reforzarlas. El desafío, entonces, es pedagógico: cómo integrar la IA sin perder el sentido profundo del aprendizaje.

Entre la oportunidad y el riesgo: un dilema que no admite soluciones simples

La IA generativa ofrece beneficios evidentes. En contextos formativos, los estudiantes pueden utilizarla para aclarar conceptos complejos, explorar alternativas de solución o mejorar su redacción técnica. En informática, puede apoyar la depuración de código y la optimización de algoritmos (Hutchinson Data Science Center, 2024).

Sin embargo, los riesgos son igualmente claros. Estudios recientes muestran que una proporción significativa de estudiantes reconoce haber usado IA para generar tareas completas sin comprender su contenido (Khairuddin et al., 2024; Tan & Maravilla, 2024). Ello incrementa la dependencia tecnológica, diluye el esfuerzo intelectual y facilita el plagio automatizado, con impacto directo en la integridad académica (Foltynek et al., 2023). Además, los modelos generativos pueden producir errores, citas falsas o textos incoherentes, las llamadas alucinaciones, que erosionan la credibilidad académica (OpenAI Research Team, 2025).

Prohibir la IA no resuelve el problema; dejarla operar sin reglas tampoco. La cuestión central es cómo incorporarla de forma responsable, transparente y alineada con el propósito formativo de las instituciones de educación superior.

Principios éticos para un uso responsable de la IA generativa

Diversos marcos internacionales, como la Recomendación sobre la Ética de la IA de la UNESCO (2021), el ACM Code of Ethics and Professional Conduct (Association for Computing Machinery [ACM], 2018) y las propuestas de la European Network for Academic Integrity (Foltynek et al., 2023), ofrecen orientaciones convergentes. Desde la experiencia docente en informática, pueden sintetizarse en tres principios:

a) Transparencia y honestidad académica: La IA debe ser reconocida como apoyo, no como autor oculto. Una breve “declaración de uso de IA” en los trabajos académicos, donde el estudiante explicite en qué etapas la utilizó, hace visible el aporte de la herramienta y protege la autoría humana.

b) IA como complemento, no como sustituto: Las herramientas generativas no deben desplazar la lectura ni la práctica deliberada. Un criterio práctico es preguntarse: “¿podría explicar y defender este trabajo sin la IA?”. Si la respuesta es negativa, la tecnología está reemplazando el aprendizaje.

c) Pensamiento crítico y alfabetización digital: Usar IA no equivale a confiar ciegamente en sus resultados, es necesario contrastar información con fuentes académicas, detectar sesgos e identificar errores, entendiendo que los modelos operan sobre patrones probabilísticos. Integrar este análisis crítico en las asignaturas de informática prepara a futuros profesionales para evaluar tecnologías emergentes con responsabilidad.

Hacia un nuevo ecosistema educativo: recomendaciones desde la informática

La convivencia con la IA generativa exige pensar en un ecosistema donde estudiantes, docentes e instituciones de educación superior asuman roles claros y coordinados.

Para estudiantes, una buena práctica es concebir la IA como un “sparring intelectual”: útil para formular preguntas, ordenar ideas, proponer ejemplos de código o sugerir estructuras de informe, siempre que luego se validen y ajusten sus propuestas a los contenidos del curso. Registrar brevemente cómo se usó la IA en un informe o proyecto favorece la metacognición, la transparencia y la responsabilidad personal.

Para docentes, el desafío es rediseñar tareas y evaluaciones. Las actividades puramente repetitivas tienden a ser fácilmente automatizables; en cambio, las que exigen argumentar decisiones, comparar enfoques, comentar resultados de la IA o integrarlos con experiencias de laboratorio son menos vulnerables al uso acrítico de estas herramientas. En asignaturas de programación, por ejemplo, puede pedirse a los estudiantes que analicen y mejoren soluciones propuestas por un modelo generativo, discutiendo sus fortalezas y debilidades éticas y técnicas.

Las instituciones de educación superior, por su parte, deben asumir el liderazgo ético mediante políticas claras de uso de IA, criterios sobre su incorporación en las evaluaciones, orientaciones para documentar su uso y acciones de capacitación docente y estudiantil (Center for Teaching Innovation, Cornell University, 2024; Foltynek et al., 2023). Un foco permanente debiera ser la equidad: asegurar que el acceso a estas herramientas no amplíe brechas previas de capital cultural, recursos tecnológicos o acompañamiento académico (UNESCO, 2021).

Desde la informática, este nuevo ecosistema implica formar a personas capaces de diseñar, auditar y utilizar sistemas de IA con criterios de responsabilidad, justicia y sostenibilidad. Ello supone integrar en el currículo, de forma transversal, no solo contenidos técnicos, sino también reflexión sobre sesgos algorítmicos, protección de datos e impacto social de la automatización.

En síntesis, la IA generativa está tensionando hasta el límite un modelo educativo que ya venía en transformación. El objetivo no debiera ser resistirse a la tecnología ni celebrarla sin matices, sino construir una cultura académica en la que docentes y estudiantes aprendan a pensar con ella: usando sus capacidades para ampliar el acceso al conocimiento, al mismo tiempo que fortalecen la ética profesional, el criterio propio y la responsabilidad con el entorno.

Referencias

Association for Computing Machinery. (2018). ACM code of ethics and professional conduct. https://www.acm.org/code-of-ethics

Biber, G., et al. (2025). A weird phrase is plaguing scientific papers – and we traced it back to a glitch in AI training data. The Conversation. https://theconversation.com/a-weird-phrase-is-plaguing-scientific-papers-and-we-traced-it-back-to-a-glitch-in-ai-training-data-254463

Cabanac, G., et al. (2021). Tortured phrases: A dubious writing style emerging in science. arXiv preprint arXiv:2107.06751. https://doi.org/10.48550/arXiv.2107.06751

Center for Teaching Innovation, Cornell University. (2024). AI & academic integrity. Cornell University. https://teaching.cornell.edu/generative-artificial-intelligence/ai-academic-integrity

Foltynek, T., Bjelobaba, S., Glendinning, I., et al. (2023). ENAI recommendations on the ethical use of artificial intelligence in education. International Journal for Educational Integrity, 19(12). https://edintegrity.biomedcentral.com/articles/10.1007/s40979-023-00133-4

Hutchinson Data Science Center. (2024). Ethics of using AI. En AI for efficient programming. https://hutchdatascience.org/AI_for_Efficient_Programming/ethics-of-using-ai.html

Khairuddin, Z., Shahabani, N., Ahmad, S., Ahmad, A., & Zamri, N. (2024). Students’ perceptions on the artificial intelligence (AI) tools as academic support. Malaysian Journal of Social Sciences and Humanities, 9(11). https://www.msocialsciences.com/index.php/mjssh/article/view/3087

OpenAI Research Team. (2025). Why language models hallucinate. OpenAI. https://openai.com/index/why-language-models-hallucinate/

Tan, M. J. T., & Maravilla, N. M. A. T. (2024). Shaping integrity: Why generative artificial intelligence does not have to undermine education. Frontiers in Artificial Intelligence, 7, 1471224. https://www.frontiersin.org/articles/10.3389/frai.2024.1471224

UNESCO. (2021). Recommendation on the ethics of artificial intelligence. https://unesdoc.unesco.org/ark:/48223/pf0000380455