Contra el uso de inteligencia artificial en la educación superior: una voz disidente

67
Solen Feyissa en Unsplash

En estos tiempos nadie parece dudar de la utilidad de la inteligencia artificial en los negocios y en casi cualquier ámbito, tampoco en la educación superior. A pesar de algunos temores acerca de usos deshonestos de esta tecnología, el balance luce favorable. Pero un filósofo ha alertado, particularmente a las universidades con recursos escasos, sobre posibles inconvenientes.


 

Karl de Fine Licht es profesor de Ética y Tecnología en la Universidad de Tecnología Chalmers (Suecia). Como filósofo ha analizado el debate acerca del uso de la inteligencia artificial (IA) generativa en la educación superior.[1] Encontró un enfoque intermedio, adoptado por muchas universidades, que fomenta su uso, sujeto a regulaciones, para mejorar la calidad de la educación. Otras universidades son más receptivas, incluso exigen el uso de la IA, mientras que algunas lo desalientan y hasta llegan a prohibirlo.[2]

Entre los beneficios de la IA suelen mencionarse mayor productividad, mayor comprensión tanto de la tecnología como de las materias y mayor inclusión. Pero han surgido preocupaciones referidas a sesgos, costos, brecha digital, dependencia excesiva, integridad y otras implicaciones éticas.[3] Ahora bien, para de Fine Licht falta un análisis sistemático de las posiciones y una argumentación estructurada que las respalde.

El autor declara desde el comienzo su intención disidente: abogar por la prohibición de la IA generativa entre estudiantes universitarios, en presencia de dos condiciones: 1) que la universidad carezca de recursos suficientes para un uso adecuado de la herramienta y 2) que exista consenso para su prohibición entre profesores, estudiantes y administradores. La escasez de recursos justifica la prohibición por razones de privacidad y desigualdad; pero, aun si existen los recursos necesarios, preocupa el consumo de energía requerido para operar y entrenar grandes modelos de lenguaje (LLM). Los beneficios de la IA generativa para el aprendizaje son inciertos y no superan sus posibles efectos adversos. Por lo tanto, si la comunidad universitaria está de acuerdo con la prohibición, existen razones para considerarla aceptable e incluso justificada moralmente.

Argumentos a favor de la promoción del uso de la IA generativa

Según de Fine Licht, un argumento preponderante contra cualquier restricción de la IA generativa es que los estudiantes necesitan aprender a usar estas herramientas porque estarán cada vez más presentes en sus trabajos y en sus vidas. El argumento justifica no solo que se promueva el uso de la IA, sino también que se creen objetivos de aprendizaje para su uso e integración al trabajo.

Un riesgo de prohibir el uso de IA generativa en una universidad es disminuir el potencial y los resultados del aprendizaje en comparación con universidades que sí adoptan estas tecnologías.[4] La IA generativa facilita el acceso a información, enriquece la experiencia de aprendizaje y fomenta el pensamiento crítico y la alfabetización digital. Al restringir el acceso a tales beneficios, los estudiantes pueden encontrarse en desventaja, por carecer de competencias esenciales y capacidad de aprovechar la tecnología para resolver problemas. Adoptar la IA generativa de manera responsable, con supervisión y reglas éticas adecuadas, podría mejorar los resultados educativos y asegurar que los estudiantes sean no solo consumidores de información, sino también innovadores hábiles en un mundo impulsado por la tecnología.

Las herramientas de IA generativa tienen potencial para aumentar la productividad de los estudiantes: agilizan el proceso de investigación, automatizan tareas rutinarias y proporcionan acceso rápido a información, que libera tiempo y energía para el pensamiento crítico y la solución de problemas. La IA puede resumir textos y elaborar esquemas que aceleran el aprendizaje y permiten cubrir más material en menos tiempo. La eficiencia puede hacer la experiencia educativa más atractiva, mejorar la calidad del trabajo y promover una comprensión más profunda de los temas. Estos beneficios se perderían al prohibir el uso de la IA generativa y los estudiantes quedarían en desventaja en un contexto académico y profesional competitivo y acelerado, donde aprovechar la IA para obtener mayor productividad es la norma.

Otro argumento se refiere a la asignación del tiempo del profesorado. Prohibir el uso de la IA generativa podría reducir el incentivo para que los profesores se familiaricen con estas herramientas y diseñen cursos y exámenes que eviten la deshonestidad académica.

Tampoco debería prohibirse la IA generativa si no puede probarse que un estudiante la ha usado. Esto se debe a la ausencia de herramientas confiables para reconocer textos, códigos o cálculos creados por IA. Legalmente, no debe implantarse una prohibición que no puede aplicarse con seguridad.

 


Los beneficios de la IA generativa para el aprendizaje son inciertos y no superan sus posibles efectos adversos.


 

Argumentos a favor de la prohibición

Karl de Fine Licht propone que las universidades —en particular las que carecen de recursos y han alcanzado un consenso después de un proceso de decisión racional e inclusivo— tienen razones morales para prohibir el uso de la IA generativa entre los estudiantes. La prohibición puede conducir a un buen resultado en cuanto a aprendizaje, habilidades y bienestar de los estudiantes y a menor participación de la universidad en procesos moralmente reprobables.

La incertidumbre acerca del uso de la IA generativa ocasiona estrés a los estudiantes. Esa preocupación se aliviaría si la universidad prohíbe el uso de estas herramientas. Además, ahorraría dinero a los estudiantes, quienes generalmente tienen dificultades financieras que les impiden pagar herramientas premium. Este argumento podría no ser decisivo, pero las universidades generalmente valoran el bienestar de los estudiantes.

Hay razones para creer que los conocimientos y habilidades adquiridos por los estudiantes podrían verse afectados si las universidades carentes de recursos adoptan una actitud indiferente o favorable hacia la IA generativa. Si los profesores no están familiarizados con la IA, no podrán ayudar a los estudiantes de manera efectiva con esta tecnología. Una universidad con recursos puede 1) entrenar al profesorado en el uso efectivo de la IA en investigación y docencia, 2) proporcionarle tiempo para entrenarse en lugar de realizar tareas docentes o administrativas, o 3) permitir que utilice el tiempo disponible en ese tipo de cursos y tareas.

Lo cierto es que la mayoría de las universidades no tiene cursos de IA generativa en educación superior; por lo tanto, no se cumple la primera condición de entrenar al profesorado. Si bien hay regulaciones y escritos optimistas sobre el uso de las herramientas en escenarios como «aula invertida», la capacitación real sobre el uso de estas herramientas es escasa. En consecuencia, el profesorado tiene que buscar recursos educativos de forma independiente, lo que no siempre es fácil. En general, muchas universidades tienen dificultades para gestionar sus responsabilidades y muy pocos recursos para ello, por lo que no se cumplen la segunda y la tercera condiciones (proporcionarle a los profesores tiempo para que se entrenen en IA y permitirles que utilicen el tiempo en esos cursos y tareas).[5] Los profesores ya están abrumados con sus responsabilidades de enseñanza, supervisión de estudiantes, participación en comités y publicación. Sin liberarlos de algunas tareas, no tienen tiempo para aprender sobre estas herramientas.

Podría argumentarse que es muy fácil usar herramientas de IA generativa y, por lo tanto, que los profesores no necesitan mayor capacitación. Lo cierto es que su uso es más complejo de lo que podría parecer. Contra la famosa «regla de las diez horas» —según la cual ese es el tiempo requerido para entender de qué es capaz la IA— muchos expertos dicen que resultan muy pocas para comprender cabalmente estas herramientas. Las diez horas permiten hacerse una idea de cómo funcionan y empezar a entender sus beneficios y limitaciones. Para enseñar a los estudiantes ingeniería de instrucciones (prompts) e integrar las herramientas de manera efectiva y responsable en sus procesos de trabajo se necesitan más de diez horas.

 


Hay razones para creer que los conocimientos y habilidades adquiridos por los estudiantes podrían verse afectados si las universidades carentes de recursos adoptan una actitud indiferente o favorable hacia la IA generativa.


Aun si se cumplieran las tres condiciones no está claro que permitir el uso de herramientas de IA generativa sea beneficioso para el aprendizaje de los estudiantes. Los resultados de la investigación son mixtos. Se ha advertido que la IA puede llevar a una relación superficial con los materiales de aprendizaje, al priorizar la eficiencia sobre la comprensión. Los modelos actuales de IA permiten hacer resúmenes y análisis estadísticos, entre otras cosas útiles para realizar las tareas. Esto es preocupante en asignaturas que requieren rigor analítico y comprensión profunda de principios subyacentes, lo que usualmente se intenta enseñar en la universidad.

La IA generativa podría afectar el aspecto relacional de la educación superior. Los estudiantes podrían optar por trabajar solos con herramientas de IA en lugar de colaborar con sus compañeros. Podría argumentarse que enseñar a los estudiantes el buen uso de las herramientas evitaría estos y otros problemas, pero no existen suficientes datos para determinar las mejores estrategias de aprendizaje. Esto hace difícil, incluso para universidades con muchos recursos, enseñar estas herramientas con la calidad requerida.

No basta con prohibir el uso de herramientas de IA para asegurar que se cumplan los objetivos de aprendizaje. También es necesario ajustar las prácticas de evaluación para desalentar la deshonestidad académica; por ejemplo, exámenes centrados en procesos más que en resultados y exámenes orales y supervisados en el lugar en lugar de exámenes para la casa.


Un riesgo de prohibir el uso de IA generativa en una universidad es disminuir el potencial y los resultados del aprendizaje en comparación con universidades que sí adoptan estas tecnologías.


El uso sin restricciones de la IA generativa puede llevar a las universidades a participar en procesos moralmente cuestionables. La privacidad de los estudiantes es uno de los temas más preocupantes. La noción estándar de privacidad se refiere al control del estudiante sobre cómo se recopilan, usan y comparten sus datos. Es moralmente incorrecto que alguien, por ejemplo, obtenga datos sobre una persona sin su consentimiento explícito e informado, especialmente con fines ajenos a su bienestar.

Para compartir datos con consentimiento informado, es necesario entender realmente cuáles podrían ser las consecuencias. Muchos estudiantes tienen una vaga idea de lo que algunas organizaciones pueden hacer con datos aparentemente insignificantes; por ejemplo, predecir acciones, inducir conductas o descubrir enfermedades que la persona quizá desconozca.[6] El hecho de que los sistemas de IA generativa sean «cajas negras» sin información sobre cómo funcionan conspira contra el consentimiento informado.

Las recomendaciones estándar sobre cómo interactuar con modelos de IA generativa incluyen usarlos como compañero de estudio, interlocutor o entrenador para futuras entrevistas de trabajo.[7] Así, los estudiantes pueden compartir una gran cantidad de datos personales que de otro modo no habrían compartido: deseos, conocimientos, fortalezas y debilidades. Estos datos pueden ser utilizados con diferentes fines, lo que los hace atractivos para las empresas.

Sin pautas estrictas de protección, el manejo de estos datos puede conducir a violaciones de la privacidad. Muchas universidades no proporcionan a los estudiantes herramientas con licencias, por lo que es fácil prever que usarán «versiones gratuitas», en las que intercambian datos por el uso del producto. Este escenario compromete la privacidad de los estudiantes y pone a la universidad en riesgo de violar leyes de protección de datos y estándares éticos. Esto afecta mayormente a los estudiantes más desfavorecidos, que necesitan ahorrar dinero para otros gastos.

La IA generativa tiene un impacto ambiental significativo y negativo. El entrenamiento y el uso de estas tecnologías consumen grandes cantidades de energía.[8] Los complejos procesos de computación necesarios para entrenar y operar estos modelos requieren el procesamiento de enormes conjuntos de datos. Los costos ambientales del uso de la IA generativa no se limitan al consumo directo de energía. La infraestructura necesaria para respaldar estos sistemas, incluidos los centros de datos y los sistemas de redes, también requiere cantidades significativas de energía para la refrigeración y el funcionamiento continuo. Esto exacerba la huella ambiental del despliegue de estas tecnologías.

Las universidades que fomentan el uso generalizado de herramientas de IA sin considerar su impacto ambiental están contribuyendo inadvertidamente a prácticas insostenibles. Por lo tanto, el uso sin restricciones de la IA generativa en la educación superior conduce a prácticas que pueden considerarse moralmente reprobables. Al restringir el uso de la IA generativa, las universidades pueden mitigar impactos ambientales y alinear sus operaciones con los objetivos de sostenibilidad adoptados con respecto a viajes, eliminación de desechos y otras medidas.

Es posible que las universidades no puedan proporcionar a los estudiantes licencias para las versiones premium de las herramientas de IA. Algunos estudiantes que carezcan de acceso a estas herramientas estarían en desventaja. Pero este argumento no parece tan convincente. Si los estudiantes reciben orientación sobre las herramientas disponibles en la universidad, la carga financiera podría reducirse. Además, se espera que los estudiantes paguen de su bolsillo libros, computadoras y otros elementos esenciales, por lo que no es injusto esperar que también cubran el costo de unas licencias de software.


Se ha advertido que la IA puede llevar a una relación superficial con los materiales de aprendizaje, al priorizar la eficiencia sobre la comprensión.


En busca de una perspectiva balanceada y pertinente

La argumentación de Karl de Fine Licht no puede, simplemente, ignorarse. Quizá sea una voz disidente y solitaria en medio de un concierto de voces que promueven el uso de la IA desde una variedad de perspectivas. Sin llegar a decretar la obligatoriedad, para sus promotores la falta de entrenamiento y el uso intensivo de esta herramienta resulta una irresponsabilidad en cualquier ámbito, más aún en una universidad.

Quizá los argumentos para prohibir el uso de la IA generativa no resulten tan convincentes para todos. Quizá, podría aducirse, el autor no seleccionó los argumentos más poderosos a favor de la herramienta. Lo cierto es que la ignorancia o la indiferencia hacia esta tecnología puede implicar un peligro de desventaja para los estudiantes universitarios, que enfrentarán un mercado laboral exigente en materia tecnológica. Pero también es cierto que no se pueden obviar los riesgos asociados con la adopción de la IA.

Llama poderosamente la atención que alguien en un país rico y avanzado ponga el énfasis en la disponibilidad de recursos de la universidad como una condición para evaluar su posición ante estas herramientas. Este es un criterio relevante para un debate sobre el tema en un país como Venezuela, sometido a una implacable escasez de recursos determinada no solo por una larga crisis económica, sino también por una diáspora masiva e interminable que ronda los nueve millones de personas, con un enorme componente de profesores y estudiantes de educación superior.

Atinadamente el autor destaca la potencial dependencia de la IA, la erosión de las habilidades de pensamiento crítico y la perpetuación de las desigualdades educativas como desafíos para cualquier universidad, en particular para las que tienen recursos escasos y una comunidad no muy convencida de la conveniencia de adoptar o no estas herramientas. Entre los recursos necesarios se destacan el financiamiento, no solo para las licencias, pues en el caso venezolano hacen falta equipos de computación y conexión a internet, entre otras cosas, y la disponibilidad de tiempo para que los profesores puedan entrenarse y entrenar a sus estudiantes en medio de sus responsabilidades académicas y administrativas.

Es necesario agregar al debate otras implicaciones éticas del uso de la IA generativa, aparte de las de amenaza a la privacidad, dependencia excesiva e impacto ambiental. Con estas herramientas se corre el riesgo de sesgo algorítmico o errores sistemáticos que pueden reforzar estereotipos y prejuicios, por ejemplo. El riesgo de plagio no solo se mantiene, sino que puede verse potenciado por el uso de herramientas que diluyen el concepto de autoría: el hecho de no estar copiando la obra de alguien conocido (o identificable) puede usarse como justificación de la conducta deshonesta.[9]

Karl de Fine Licht concluye con las siguientes palabras: «Las decisiones que tomemos hoy moldearán el escenario ético del uso de tecnología en ambientes educativos, lo que destaca la necesidad de un enfoque reflexivo capaz de equilibrar innovación y responsabilidad».[10] Sea cual fuere la posición con respecto a la prohibición o no de la IA, las herramientas existen y sus riesgos éticos ameritan consideración, para desarrollar las instituciones educativas dignas y responsables del futuro. Como reconoce el autor, en todo el mundo los profesores se esfuerzan para mantenerse actualizados, y para ello invierten dinero de su bolsillo. Esta es una consideración por demás pertinente en un país como Venezuela, donde la profesión docente se ha depauperado y las instituciones educativas hacen esfuerzos inimaginables para cumplir su misión.


José Malavé, profesor del IESA y editor de Debates IESA.

Suscríbase aquí al boletín de novedades (gratuito) de Debates IESA.

 

Notas

[1] De Fine Licht, K. (2024). Generative artificial intelligence in higher education: Why the «banning approach» to student use is sometimes morally justified. Philosophy & Technology, 37(113). https://doi.org/10.1007/s13347-024-00799-9.

[2] McDonald, N., Johri, A., Ali, A. y Hingle, A. (2025). Generative artificial intelligence in higher education: Evidence from an analysis of institutional policies and guidelines. Computers in Human Behavior: Artificial Humans, 3, 100121. https://doi.org/10.1016/j.chbah.2025.100121.

[3] Williams, R. T. (2024). The ethical implications of using generative chatbots in higher education. Frontiers in Education, 8, 1331607. https://doi.org/10.3389/feduc.2023.1331607.

[4] Mollick, E. R. y Mollick, L. (2022). New modes of learning enabled by AI chatbots: Three methods and assignments. Social Science Research Network. https://ssrn.com/abstract=4300783.

Mollick, E. R. y Mollick, L. (2023). Using AI to implement effective teaching strategies in classrooms: Five strategies, including prompts. Social Science Research Network. https://ssrn.com/abstract=4391243.

[5] Miller, R. E. (2024). Pandora’s can of worms: A year of generative AI in higher education. portal: Libraries and the Academy, 24(1), 21–34. https://doi.org/10.1353/pla.2024.a916988.

[6] Véliz, C. (2021). Privacy is power: Why and how you should take back control of your data. Melville House.

[7] Holmes, W. y Miao, F. (2023). Guidance for generative AI in education and research. Unesco.

[8] Bender, E. M., Gebru, T., McMillan-Major, A. y Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? Proceedings of the 2021 ACM Conference on fairness, accountability, and transparency (pp. 610-623). Association for Computing Machinery. https://doi.org/10.1145/3442188.3445922.

[9] Williams (2024).

[10] De Fine Licht (2024, p. 113).