En la era de la IA, las humanidades deben defender el derecho a la aspereza
Noviembre 10, 2025

En la era de la IA, las humanidades deben defender el derecho a la aspereza

Jan Burzlaff, 05 de noviembre de 2025

Cuando ChatGPT-5 resumió el testimonio en tiempos de guerra de Luisa D., una sobreviviente del Holocausto de siete años, se perdió el momento más inquietante: su madre, desesperada por mantener vivo a su hijo, se cortó el dedo y esparció sangre en los labios de su hija “por el más débil rastro de humedad”. El algoritmo capturó fechas y movimientos, pero no el sufrimiento. Esa omisión captura el peligro que enfrentamos en la prisa de la educación superior hacia la IA generativa.

Las máquinas ahora pueden generar prosa sin costuras, pero al hacerlo corren el riesgo de suavizar las mismas contradicciones, vacilaciones y emociones que hacen que la escritura humana, y la comprensión humana, sea real.

En todas las universidades, la IA se está adoptando más rápido que cualquier tecnología educativa anterior. Lo que comenzó como una novedad ahora se ha convertido en infraestructura: políticas institucionales para la mayoría, tutores de escritura impulsados por IA y herramientas de calificación automatizadas para unos pocos, incluso planes estratégicos que prometen una “transformación de la IA”.

Tanto los administradores como los profesores ahora se preguntan: ¿la IA reemplazará los borradores, los bucles de retroalimentación, incluso los vocabularios que usamos para enseñar el pensamiento y la escritura? Pero en medio de esta prisa, algo aún más sutil se está perdiendo: nuestra capacidad para enseñar y recompensar la lucha en el pensamiento.

En un artículo reciente publicado en Rethinking History, sostengo que los académicos y los estudiantes deben preservar conscientemente las apuestas éticas, intelectuales y estilísticas del aprendizaje para contrarrestar el modo predeterminado de la IA: suavizar la complejidad en flujos predecibles. En un mundo cada vez más contento con subcontratar el pensamiento a los algoritmos, preservar el oficio de la expresión humanista se convertirá en un acto de desafío. Nuestra tarea no es superar a la máquina, sino no parecerse en nada a ella.

Escribir como postura ética

Los modelos de IA son excepcionalmente buenos para producir prosa fluida y pulida. Emulan la sintaxis, equilibran las cláusulas y evitan errores evidentes, que muchos estudiantes dan la bienvenida con alivio. Pero la coherencia no es lo mismo que el pensamiento.

El riesgo, especialmente en las humanidades, es que las tensiones y las paradojas a medias, ese humus vital del pensamiento, se aplanen. Cuanto más dependamos de borradores generados por IA o ediciones automáticas, más nos entrenamos a nosotros mismos y a las generaciones futuras para omitir la vacilación y preferir lo “legible” a lo generativo.

Cuando las universidades privilegian la eficiencia, a través de tareas estandarizadas o resúmenes de investigación editados por IA, refuerzan una monocultura académica: fluida, predecible y sin sangre.

Por el contrario, la historia, la literatura y la filosofía viven en los bordes ásperos, donde los hechos se encuentran con la incertidumbre, donde el silencio y la contradicción exigen interpretación. Nuestro trabajo, como educadores, es habitar en las molestias y alentar a nuestros estudiantes a hacer lo mismo.

En mis propias clases, pido a los estudiantes que comparen los resúmenes generados por IA de los testimonios del Holocausto con sus propias lecturas cercanas. Casi siempre, se asoman por lo que el modelo pierde: las pausas, las contradicciones, los pequeños gestos que llevan peso moral.

A través de esa comparación, aprenden que la escritura no es transcripción, es una postura ética. Escuchar pausas, interpretar silencios, confrontar lo que no se puede resumir fácilmente. Qué máquinas aplanan en patrón, los educadores deben reabrir como una paradoja.

Aprendiendo contra la corriente

El verdadero desafío que tenemos por delante es cómo enmarcamos la presencia de la IA. Las universidades están invirtiendo fuertemente en “alfabetización de IA”, pero pocos enseñan lo que podríamos llamar resistencia a la IA: cómo detectar cuando una oración suena demasiado ordenada, cuando un argumento ha perdido su ventaja o cuando el ritmo de un ensayo traiciona su origen mecánico.

Necesitamos aulas que cultiven el discernimiento, no la dependencia. En lugar de prohibir la IA o abrazarla acríticamente, podemos enseñar a los estudiantes a anotarla y cuestionarla, para ver lo que se aplanó, para reescribir lo que se suavó demasiado, para restaurar la tensión y la voz. El objetivo no es la prohibición, sino la reflexión: enseñar el discernimiento en un mundo de fluidez digital.

Las implicaciones van mucho más allá del aula. A medida que las universidades normalizan la escritura asistida por IA, en informes administrativos, cartas de recomendación o comunicación académica, el punto de referencia de la prosa aceptable cambia silenciosamente. ‘Legible’ comienza a significar ‘refinado a máquina’. El umbral del rigor disminuye y la originalidad se vuelve arriesgada.

Para los académicos de carrera temprana, esto tiene consecuencias existenciales. Si los guardianes disciplinarios comienzan a favorecer el estilo sin fricciones, la próxima generación internalizará esas normas. Las largas frases del historiador, las digresiones especulativas del filósofo, las vacilaciones rítmicas del ensayista, todo podría reducirse al minimalismo algorítmico.

A partir de mi investigación y enseñanza, tres principios pueden ayudar a las instituciones a protegerse contra ella.

• Enseñar la incertidumbre como un método, no un defecto: las universidades a menudo valoran la confianza y el cierre, pero la investigación genuina comienza con la duda. Deberíamos recompensar a los estudiantes, y a la facultad, por pensar en voz alta, por trazar los contornos de la incertidumbre en lugar de enmascararla. La frase “No lo sé muy bien” ya no debería indicar debilidad; debería marcar el comienzo de la honestidad intelectual. Cuando los estudiantes anotan contradicciones, siguen tangentes o dejan preguntas abiertas, están practicando la disciplina de pensamiento que ningún algoritmo puede automatizar.

• Escribir como mentor como oficio, no como resultado: En medio de la prisa hacia la eficiencia, la educación superior corre el riesgo de olvidar que la escritura no es un producto, es una práctica de atención. Editar, revisar, leer en voz alta, experimentar con ritmo y metáfora: estas son formas de cuidado. Enseñan a los estudiantes que las ideas ganan fuerza a través de la fricción, no de la automatización. La tutoría debería significar sentarse con oraciones, preguntar por qué funciona una frase, dónde flaquea un pensamiento y cómo la voz transmite significado. Las máquinas pueden refinar la gramática, pero no pueden enseñar estilo, empatía o comunidad.

• Desarrollar la paciencia institucional: el aprendizaje lleva tiempo, y también lo hace el descubrimiento. Sin embargo, las universidades miden cada vez más el éxito a través de la velocidad: qué tan rápido se califican las tareas, qué tan eficientemente se publican los documentos, qué tan rápido aparecen los resultados. Para preservar la profundidad, las instituciones deben recompensar el pensamiento lento, el camino serpenteante que conduce a la comprensión real. La facultad necesita tiempo protegido para leer y revisar; los estudiantes necesitan permiso para explorar antes de concluir. La paciencia no es ineficiencia, es la condición previa de la visión.

El derecho a la aspereza

Las universidades deberían estar orgullosas de lo que la IA encuentra ineficiente: el borrador que tropieza hacia la claridad, la conversación que dura demasiado y el ensayo que se contradice a sí mismo pero se niega a simplificar. Esos no son errores en el sistema humano; son su prueba de vida.

Si la IA generativa amenaza con sobrescribir las sutilezas del pensamiento, nuestra respuesta no puede ser la nostalgia o el pánico. En cambio, quiero abogar por la artesanía, el cuidado y la confianza. El objetivo no es detener la marea, sino enseñar a los estudiantes, y a nosotros mismos, cómo escribir y pensar de maneras que las mareas no puedan suavizar.

Las humanidades siempre han ofrecido a la sociedad más que contenido: le dan textura. Defendamos esa textura, el derecho a la aspereza, como la prueba de que el aprendizaje, como la humanidad misma, todavía resiste la automatización.

El Dr. Jan Burzlaff es asociado postdoctoral en estudios judíos en la Universidad de Cornell, Estados Unidos. Su investigación y enseñanza se centran en la historia del Holocausto, la Europa moderna y las humanidades en la era de la IA.

Este artículo es un comentario. Los artículos de comentarios son la opinión del autor y no reflejan necesariamente las opiniones de University World News.

0 Comments

Submit a Comment

Tu dirección de correo electrónico no será publicada. Los campos requeridos están marcados *

PUBLICACIONES

Libros

Capítulos de libros

Artículos académicos

Columnas de opinión

Comentarios críticos

Entrevistas

Presentaciones y cursos

Actividades

Documentos de interés

Google académico

DESTACADOS DE PORTADA

Artículos relacionados

Share This