Universidades frente a la IA
Junio 1, 2025

¿La batalla equivocada? Las universidades deben liderar, no combatir, la integración de la IA.

Se está librando la batalla equivocada. En las salas de conferencias y en los titulares, se presenta a la inteligencia artificial como el enemigo de la educación, culpándola de erosionar el pensamiento crítico, permitir el plagio y desplazar a los profesores humanos.

Pero debajo de la reacción negativa yace una confusión más profunda sobre lo que realmente está cambiando. “Quiero que me devuelvan mi matrícula”. Esa fue la protesta expresada por un estudiante de la Universidad Northeastern, en The New York Times , después de enterarse de que su profesor había usado ChatGPT para generar partes del programa de estudios y el contenido del curso.

No se trataba solo de costo, se trataba de significado. Cuando las máquinas participan en la enseñanza, ¿qué pagan exactamente los estudiantes? Esta indignación refleja más que una queja; revela un momento de desorientación epistémica. La crisis no se trata de que la IA reemplace el aprendizaje, se trata de no saber cómo definir el aprendizaje más.

La protesta del estudiante de Northeastern tocó una fibra sensible no porque fuera única, sino porque era familiar. En aulas y campus, estudiantes, profesorado y administradores se enfrentan a una pregunta desconcertante: si las máquinas pueden enseñar, ¿qué significa aprender?

La reacción contra la IA en la educación, especialmente la generativa, ha aumentado como respuesta a esta incertidumbre. Los críticos advierten que erosionará el pensamiento crítico, acelerará el plagio, reducirá la motivación estudiantil y desplazará al docente humano.

Pero estas preocupaciones, aunque a menudo válidas, apuntan a algo más profundo que errores políticos o riesgos éticos. Señalan una crisis en nuestra comprensión de la arquitectura misma de la educación.

A medida que se multiplican los titulares y los informes institucionales emiten serias advertencias, una cosa queda clara: estamos teniendo la conversación equivocada. El problema no es que la IA esté entrando en el aula. El problema es que aún no hemos reinventado el aula para un mundo en el que la inteligencia ya no sea dominio exclusivo de los humanos.

Las críticas no se equivocan porque carezcan de urgencia. Se equivocan porque diagnostican erróneamente la condición. Tratan la IA como una amenaza externa en lugar de reconocerla como un espejo que refleja la fragmentación, la inercia y la deriva epistémica que ya operan en nuestros sistemas educativos.

Este artículo responde a la reacción negativa no desestimando las preocupaciones, sino cuestionando sus suposiciones subyacentes. Argumenta que muchas de las reacciones actuales a la IA reflejan el anhelo de un modelo educativo arraigado en el control, la jerarquía y una fuente única de verdad; modelos que están cada vez más desfasados ​​con la complejidad del mundo que habitan nuestros estudiantes. En

lugar de preguntarnos si la IA tiene cabida en la educación, debemos plantearnos una pregunta más urgente: ¿Qué tipo de educación encaja en un mundo ya moldeado por sistemas inteligentes y qué tipo de agencia humana debemos cultivar en él?

La reacción negativa: Lo que los críticos entendieron mal.

La reacción contra la IA en la educación ha adquirido la intensidad de un pánico moral. Comentaristas, profesores e instituciones por igual han presentado la inteligencia artificial como una amenaza existencial para el aprendizaje, como si una máquina en el aula señalara el fin del pensamiento humano mismo.

En The New York Times , Jessica Grose declaró que la IA podría “destruir” la capacidad de los estudiantes de pensar críticamente, advirtiendo que herramientas como ChatGPT socavan el desarrollo de un compromiso intelectual genuino.

Pero tales pronunciamientos a menudo revelan más sobre las ansiedades culturales que sobre la pedagogía. Enmarcan la IA no como una herramienta que requiere una integración reflexiva, sino como una fuerza corrosiva que desestabiliza los cimientos morales y cognitivos de la educación.

Un relato similar apareció en The Economic Times , donde un profesor se volvió viral después de renunciar con la advertencia de que la IA estaba “destruyendo a nuestros niños”. Las preocupaciones del profesor (sobre la fatiga de la pantalla, el embotamiento cognitivo y la disminución de la alfabetización) se hacen eco de un temor generalizado de que el aula esté siendo colonizada por máquinas.

Pero estas historias a menudo idealizan un pasado que nunca existió del todo: uno donde la atención era indivisa, los libros eran sagrados y las aulas eran inmunes a las distracciones.

En realidad, los estudiantes ahora habitan un ecosistema mediático fragmentado, navegando por las economías de la atención y la sobrecarga digital mucho antes de poner un pie en un aula. Culpar solo a la IA es pasar por alto las disrupciones más amplias y estructurales que ya están transformando la forma en que se produce el aprendizaje. Las

críticas institucionales también han amplificado la alarma. Informes del Center for American Progress y de Pew Research advierten sobre los riesgos de la IA (trampas, inequidad, desconexión), lo que a menudo insta a su regulación o restricción.

Estas preocupaciones no son infundadas. Las herramientas de IA pueden usarse indebidamente. Cuando se implementan sin previsión ética ni orientación pedagógica, pueden reforzar las brechas existentes y reducir la experiencia educativa a métricas gamificadas.

Pero enmarcar la IA principalmente como una amenaza pasa por alto una pregunta más profunda: ¿Qué intentamos realmente preservar? ¿Y por qué asumimos que los valores que apreciamos (curiosidad, rigor, creatividad) no pueden coexistir con los sistemas inteligentes?

El artículo de contrapunto del Harvard Independent adopta una postura más tajante , criticando las “inexactitudes confiadas” de la IA y su potencial para fomentar una participación superficial. Si los estudiantes pueden producir respuestas pulidas pero superficiales con un mínimo esfuerzo, se pregunta: ¿qué sucede con el rigor académico?

Sin embargo, esta línea de crítica asume un alumnado pasivo y un marco pedagógico inerte. Trata la tecnología como un destino, no como un contexto. Al hacerlo, descuida el papel del educador en la configuración del uso de las herramientas: cómo se enseña a los estudiantes a verificar, criticar e interpretar con discernimiento el contenido generado por máquinas.

En conjunto, estas críticas convergen en torno a una preocupación común: la pérdida de control. Señalan no solo el descontento con la tecnología, sino una incomodidad más profunda con el cambio, en particular los cambios que perturban la autoridad simbólica del docente y los ritmos institucionales del aprendizaje tradicional.

Anhelan un aula donde el significado fluya del ser humano al estudiante en línea recta. Pero esa línea ya se ha roto. El panorama actual del conocimiento es no lineal, poroso y cada vez más moldeado por las interacciones con sistemas que piensan, responden y evolucionan.

La verdadera crisis no es que la IA esté reemplazando el pensamiento, sino que aún no hemos redefinido el significado del pensamiento en una era de aumento . Esta reacción no marca el fracaso de la IA en la educación. Marca el fracaso de nuestro discurso educativo para evolucionar.

Al aferrarnos a binarios obsoletos (humano vs. máquina, profundo vs. superficial, autoridad vs. automatización), evitamos enfrentar la verdadera tarea: construir un modelo pedagógico capaz de integrar inteligencia artificial sin renunciar a los intereses humanos del aprendizaje.

Los críticos no se equivocan al preocuparse. Pero, simplemente, están librando la batalla equivocada.

La verdadera crisis: imaginación, no tecnología

Los llamados a detener la integración de IA en educación a menudo se disfrazan de llamados a la precaución. Pero debajo de la superficie yace un impulso más profundo: una retirada de la imaginación. El miedo no es solo a las máquinas, es a lo que las máquinas exponen. Cuando los críticos exigen una pausa, lo que realmente están deteniendo es la capacidad de repensar, rediseñar y reimaginar el aprendizaje más allá de los paradigmas heredados.

La crisis, en otras palabras, no es tecnológica. Es filosófica. Es el fracaso de nuestros sistemas educativos para desarrollar marcos relacionales, éticos y cognitivos capaces de interactuar con un mundo ya transformado por herramientas inteligentes.

Seguimos atados a falsas dicotomías: humano versus máquina, analógico versus digital, conocimiento versus automatización, mientras que el terreno real del aprendizaje ha cambiado bajo nuestros pies.

Ahora entramos en un tercer espacio: donde la cognición no se desplaza, sino que se amplía; donde los docentes evolucionan de transmisores de contenido a creadores de significado y guías; y donde los estudiantes se encuentran con una inteligencia distribuida, iterativa y coproducida.

Temer a la IA es temer a un espejo. Refleja las disyunciones ya arraigadas en nuestras instituciones: la burocratización del aprendizaje, el ritualismo de la evaluación y la creciente brecha entre la pedagogía y la realidad vivida.

La IA no creó estos problemas. Los revela. Acelera nuestra necesidad de confrontar lo que hemos ignorado por demasiado tiempo: que la arquitectura del aprendizaje debe evolucionar, no solo para acomodar a las máquinas, sino para acomodar al tipo de seres humanos en los que nos estamos convirtiendo.

Esto no es una invasión. Es una invitación. La IA nos obliga a plantearnos preguntas persistentes con nueva urgencia: ¿Qué es el conocimiento? ¿Qué es la enseñanza? ¿Qué es el pensamiento cuando este ya no se limita al cerebro humano? El desafío no es proteger el viejo modelo del colapso, sino diseñar uno nuevo que merezca este momento. Eso requiere más que crítica. Requiere imaginación.

El resto del mundo no espera.

Mientras los debates en Occidente siguen sumidos en el pánico moral y el pensamiento binario, otras partes del mundo avanzan decididamente hacia un futuro donde la IA no sea un adversario, sino una parte integral de la transformación educativa.

La pregunta en otras partes no es si la IA debe estar en el aula, sino cómo diseñar sistemas que preparen a los estudiantes para un mundo moldeado por la inteligencia artificial sin renunciar a la base ética ni a la profundidad pedagógica.

En Corea del Sur, la educación en IA comienza en la escuela primaria. El gobierno ha lanzado escuelas secundarias dedicadas a la IA y está invirtiendo fuertemente en la capacitación de miles de maestros tanto en fluidez técnica como en ética digital. La IA no se considera una novedad, se trata como una nueva alfabetización ( Kim, 2023 ; Park, 2024 ).

En China, la IA se integró en el currículo nacional ya en 2018. Los estudiantes de los grados primarios en adelante participan en programas de robótica, competiciones nacionales de IA y laboratorios prácticos . El objetivo no es solo la fluidez, sino el liderazgo en la configuración del desarrollo y la gobernanza de la IA para 2025.

Estonia y Finlandia han adoptado un enfoque holístico. En Estonia, la IA y el pensamiento computacional se enseñan junto con la educación cívica y la ciudadanía digital .

En Finlandia, el curso ahora global Elements of AI (Elementos de IA) , traducido a más de 20 idiomas, se ha adaptado para escuelas secundarias, combinando la alfabetización técnica con la reflexión ética.

En toda la Unión Europea, el Plan de Acción de Educación Digital (2021-2027) apoya el diseño curricular transfronterizo, la capacitación de educadores y los estándares éticos para el uso de la IA en las aulas.

En lugar de ver la IA como una amenaza que debe gestionarse, estos esfuerzos la tratan como una característica estructural del futuro de la educación, que exige una integración cuidadosa y basada en valores.

Lo que une a estos sistemas no es el entusiasmo tecnológico, sino la imaginación estratégica. No están externalizando su futuro educativo a corporaciones, ni están paralizados por la nostalgia de un pasado predigital. Están construyendo marcos que tratan la IA como un catalizador para la renovación pedagógica, no para el declive.

Mientras tanto, en sistemas educativos que aún se aferran a las jerarquías de ayer, nos hacemos preguntas que ya no importan: ¿Debería permitirse la IA en clase? ¿Erosionará el aprendizaje tradicional? Estas no son preguntas visionarias. Son defensas de retaguardia. El resto del mundo no está esperando a que resolvamos nuestras ansiedades. Ya está diseñando el próximo paradigma.

Žižek y el papel simbólico del profesor

Slavoj Žižek, el filósofo y crítico cultural esloveno, rara vez aparece en las conversaciones sobre tecnología educativa. Pero debería, porque pocos pensadores están mejor capacitados para diagnosticar lo que realmente está en juego en la reacción contra la IA.

Mientras que la mayoría de los comentaristas se centran en los resultados, las herramientas o las estrategias de enseñanza, Žižek presta atención a algo más profundo: el andamiaje simbólico que mantiene unido al sistema: las estructuras inconscientes que determinan no solo lo que pensamos, sino también cómo sabemos ( McMillan, 2015 ).

Esto es precisamente lo que hace que Žižek sea más relevante que los teóricos de la tecnología educativa o los expertos en políticas. Nos recuerda que la ideología no es simplemente un conjunto de creencias : es el marco invisible que nos dice qué cuenta como válido, creíble o real. En el aula, esto significa que la IA no solo altera la entrega de contenido. Altera la arquitectura simbólica de la educación misma. Desestabiliza el desempeño mismo de la autoridad.

Para Žižek, el profesor no es simplemente un transmisor de información. El profesor ocupa una posición simbólica: el que otorga significado, quien decide qué importa y quien legitima el acto de saber. La clase magistral, la calificación, el seminario: su función más profunda no es instructiva sino ritualista. Organizan el flujo de conocimiento en torno a un centro humano estable.

Pero ¿qué ocurre cuando un modelo de lenguaje de IA —la ilusión de inteligencia— puede responder a una pregunta con mayor rapidez, fluidez y, a veces, persuasión que el profesor?

La autoridad del profesor comienza a debilitarse, no porque se vuelva obsoleto, sino porque su monopolio sobre el desempeño del conocimiento se rompe. Los estudiantes ya no están atados a una fuente humana única. Ahora transitan un territorio de conocimiento poblado por inteligencias no humanas.

Esta ruptura simbólica genera ansiedad, no solo entre el profesorado, sino en toda la institución. La reacción contra la IA no es una mera defensa de la pedagogía. Es una defensa del ritual pedagógico: la idea de que la educación requiere una autoridad designada para santificar su proceso. No lamentamos la pérdida del aprendizaje. Lamentamos la pérdida de un orden simbólico donde el aprendizaje se sentía arraigado, lineal y legible.

Pero en esa ruptura reside la oportunidad. Si seguimos la provocación de Žižek hasta su conclusión, se nos invita a reimaginar al profesor no como el centro inexpugnable del conocimiento, sino como un guía en la incertidumbre epistémica.

El profesor se convierte en intérprete de un campo simbólico inestable: alguien que ayuda a los estudiantes a navegar en un mundo donde la verdad ya no se transmite desde arriba, sino que se encuentra a través del diálogo, la contradicción y el discernimiento.

En este rol reconfigurado, el profesor no se ve disminuido por la IA, sino que se eleva. Ya no se ve obligado a dominar el arte, sino que puede, en cambio, interpretar el significado. Se convierten en el humano que contextualiza lo no humano, que revela la lógica y los límites de los sistemas inteligentes y que modela el tipo de imaginación crítica que las máquinas no pueden replicar.

Žižek no nos ofrece una solución, sino una lente: una forma de ver la reacción negativa de la IA como lo que es: no solo un debate sobre tecnología, sino una confrontación con la fragilidad de nuestras instituciones simbólicas. En la era de la inteligencia simulada, no solo necesitamos educadores que sepan enseñar. Necesitamos educadores que sepan significar, que comprendan el poder de la interpretación en un mundo inundado de respuestas. Dejemos

que las universidades lideren, no las corporaciones.

A medida que la inteligencia artificial se abre paso en las aulas, se cierne una pregunta crucial: ¿Quién decide qué cuenta como aprendizaje en la era de los sistemas inteligentes? Hasta ahora, ese poder se ha inclinado hacia aquellos menos equipados para responderla: las corporaciones y los legisladores.

Las empresas de tecnología educativa construyen las plataformas, los ministerios persiguen métricas de innovación y la pedagogía se convierte en una ocurrencia tardía. Cuando la eficiencia se convierte en el objetivo y la cuota de mercado en la métrica, la educación corre el riesgo de ser vaciada desde dentro.

No se trata simplemente de comercialización. Es una lucha por la autoridad epistémica. Cuando las corporaciones diseñan la arquitectura del aprendizaje mejorado con IA (las plataformas, los algoritmos, los sistemas de entrega de contenido), hacen más que digitalizar la instrucción. Codifican suposiciones sobre qué es el conocimiento, cómo acceder a él y qué formas de inteligencia merecen reconocimiento.

En estos sistemas, el aprendizaje se convierte en algo que debe monitorearse, impulsarse y optimizarse. Métricas como las tasas de clics, los porcentajes de finalización y las puntuaciones de participación representan la comprensión, la reflexión y el discernimiento. Esto no es educación. Es instrucción basada en datos disfrazada de innovación.

Las universidades deben recuperar el futuro, no para preservar la tradición, sino para proteger el propósito moral e intelectual de la educación. A diferencia de las corporaciones, las universidades no están (en teoría) en deuda con los accionistas ni con los resultados trimestrales.

Son instituciones diseñadas para servir al bien público, cultivar el pensamiento crítico y cuestionar los supuestos sobre los que se construyen los sistemas tecnológicos. Esto las hace especialmente aptas para moldear la integración de la IA, no como adoptantes pasivos, sino como gestoras epistémicas.

Para liderar significativamente, las universidades deben dejar de tratar la IA como una disrupción distante y comenzar a considerarla una frontera de investigación central. Las facultades de educación deben colaborar con los departamentos de informática, ciencias cognitivas, filosofía y diseño para crear programas interdisciplinarios que formen a los educadores tanto en el dominio de la IA como en la pedagogía ética.

Los centros de investigación deben examinar cómo los sistemas inteligentes transforman la cognición, la evaluación y el acceso, preguntándose no solo qué es posible, sino qué es justo. Los institutos de ética deben ir más allá de las directrices abstractas y adoptar marcos aplicados que aborden las aulas reales, las disparidades reales y los riesgos reales.

Ya estamos viendo indicios de este cambio. La iniciativa Elements of AI de la Universidad de Helsinki , desarrollada en colaboración con Reaktor, ofrece un curso gratuito, multilingüe y con conciencia ética sobre los fundamentos de la IA, que ha sido adoptado por más de un millón de estudiantes en todo el mundo.

El Instituto de IA Centrada en el Ser Humano (HAI) de Stanford es pionero en la investigación interdisciplinaria que fusiona el aprendizaje automático con la filosofía, la educación y el derecho, priorizando el impacto social sobre la publicidad tecnológica.

Estos no son proyectos paralelos. Son modelos de cómo las universidades pueden liderar la integración de la IA en sus propios términos, equilibrando la innovación con la claridad moral y la relevancia con la reflexión.

Las universidades también deben invertir en la creación de alternativas de código abierto centradas en el ser humano a los sistemas de IA propietarios: herramientas que prioricen la transparencia, la interpretabilidad y la autoría colectiva.

Proyectos como OpenMined , que se centra en el aprendizaje automático que preserva la privacidad, o los modelos y conjuntos de datos abiertos de Hugging Face muestran cómo las instituciones académicas pueden colaborar con la comunidad de código abierto para crear alternativas basadas en valores cívicos.

Estos sistemas deben diseñarse conjuntamente con educadores y estudiantes, no imponerse desde arriba. Deben ser culturalmente sensibles, pedagógicamente flexibles y estar diseñados no para extraer datos sino para cultivar significado.

Finalmente, la universidad debe recordar su rol cívico. No debería esperar a que los gobiernos regulen la IA responsablemente. Debería modelar cómo se ve el uso responsable. Al hacerlo, hace más que asegurar que la IA mejore en lugar de distorsionar la educación. Reafirma qué tipo de instituciones necesitamos para dar forma al futuro humano-máquina, con sabiduría, cuidado e imaginación democrática.

Porque si dejamos que las corporaciones lideren, construiremos sistemas que enseñen a los estudiantes a servir a las máquinas. Pero si dejamos que las universidades lideren, tenemos la oportunidad de construir sistemas que enseñen a los estudiantes cómo comprender, criticar y coevolucionar con las máquinas. Lo que está en juego no es solo tecnológico, es profundamente humano.

Conclusión: Abandonemos la binariedad, construyamos el futuro.

El debate sobre si la IA es “buena” o “mala” para la educación ya no tiene sentido. Es una distracción: un marco binario impuesto a una realidad que ya lo ha superado.

La inteligencia artificial no está llegando. Está aquí. La pregunta que importa ahora no es si integramos la IA en la educación, sino cómo lo hacemos: con intencionalidad y visión o con miedo y negación.

Rechazar la IA por completo no es una postura de principios para el aprendizaje. Es negarse a evolucionar. Es renunciar a la responsabilidad en un momento en que la claridad moral, la valentía intelectual y la imaginación pedagógica son más necesarias.

La presencia de sistemas inteligentes en nuestras aulas nos obliga a revisar nuestras suposiciones más fundamentales, no solo sobre las herramientas y la enseñanza, sino también sobre lo que significa pensar, saber y ser humano en un mundo cointeligente.

Este no es momento para una regulación reactiva ni para un retraimiento nostálgico. Es momento para reimaginar la pedagogía desde cero. Necesitamos marcos que vayan más allá de la dicotomía humano-máquina.

Debemos empezar a entender la inteligencia como una autoría compartida, que surge a través de la interacción dinámica entre la conciencia humana y los sistemas computacionales. El aprendizaje ya no es una transacción lineal entre alumno y profesor. Es relacional, está en red y, cada vez más, mediado por agentes no humanos.

En este nuevo terreno, la educación debe priorizar más que los resultados. Debe priorizar la calidad de la atención, la profundidad del discernimiento y la integridad de la construcción de significado, tanto en las formas de cognición humanas como artificiales.

Esto no implica un rechazo a las humanidades. Es su redescubrimiento, reflejado a través de los desafíos de la era algorítmica. La ética, la imaginación y la teoría crítica no son complementos de la educación en IA; son su brújula.

Esta responsabilidad no puede ser externalizada a plataformas ni postergada por los responsables políticos. Debe ser liderada por las instituciones a las que aún se les confía el cultivo del conocimiento: las universidades.

Si están a la altura del desafío —no para defender la tradición sino para diseñar nuevos modelos de pensamiento— pueden convertirse en laboratorios para un futuro en el que el aprendizaje siga siendo un acto fundamentalmente humano, precisamente porque se adapta a nuevas formas de inteligencia sin renunciar a su propósito.

Debemos dejar de preguntarnos si la IA tiene cabida en la educación. Esa pregunta está obsoleta. La verdadera pregunta es esta: ¿Qué tipo de educación cabe en un mundo donde la inteligencia ya no es exclusivamente humana?

Nuestras respuestas darán forma a más que los planes de estudio. Daran forma a la conciencia. Y, en última instancia, darán forma al tipo de sociedad en la que nos estamos convirtiendo.

James Yoonil Auh es catedrático de ingeniería informática y de comunicaciones en la KyungHee Cyber ​​University de Corea del Sur y se especializa en educación impulsada por IA y tecnología ética en contextos de aprendizaje global. Ha trabajado en Estados Unidos, Asia y Latinoamérica en proyectos que vinculan la ética, la tecnología y las políticas educativas.

0 Comments

Submit a Comment

Tu dirección de correo electrónico no será publicada. Los campos requeridos están marcados *

PUBLICACIONES

Libros

Capítulos de libros

Artículos académicos

Columnas de opinión

Comentarios críticos

Entrevistas

Presentaciones y cursos

Actividades

Documentos de interés

Google académico

DESTACADOS DE PORTADA

Artículos relacionados

El drama de la docencia universitaria

Cuando el profesor se queda sin aire Los académicos, que lo fiamos todo a la investigación, no tenemos tiempo para aprender nada de la investigación sobre la eficacia docente Francesc Pedró,director del Instituto internacional de la UNESCO para la Educación Superior,...

Share This