Desestimar los méritos académicos de ChatGPT es intelectualmente deshonesto
Septiembre 11, 2025

Desestimar los méritos académicos de ChatGPT es intelectualmente deshonesto

Retratar ChatGPT como un patio de recreo para plagiadores es una respuesta tímida a la capacidad de la IA para mejorar la investigación en todas las materias, argumenta Agnieszka Piotrowska
Agnieszka Piotrowska , 3 de septiembre de 2025 (Traducción automática de Google)

Las advertencias se suceden rápidamente: tengan cuidado con los “delirios peligrosos” de los usuarios pasivos de inteligencia artificial (IA), dice el jefe de IA de Microsoft, Mustafa Suleyman;  los investigadores del Instituto Tecnológico de Massachusetts  (MIT) denuncian un deterioro cognitivo; y los académicos denuncian plagio.

Ese  reciente estudio del MIT , por ejemplo, advierte que los usuarios habituales de grandes modelos lingüísticos (LLM) podrían experimentar una disminución del 47 % en su actividad cerebral (una afirmación controvertida, pero ampliamente citada), como si conversar con una máquina equivaliera a entregar la mente en un archivo comprimido. Por otra parte, algunos académicos afirman que el uso de IA en cualquier trabajo académico, incluida la investigación, constituye una nueva forma de plagio. El mensaje es contundente: si usas IA, estás haciendo trampa y tu pensamiento se verá afectado.

Este enfoque es demasiado limitado. Supone que la IA solo puede usarse de forma pasiva, como un atajo para una escritura informal y superficial. En realidad, muchos estamos explorando usos mucho más creativos y dialógicos de la IA en la educación superior. Los LLM, cuando se utilizan de forma crítica, pueden funcionar no como escritores fantasma, sino como colaboradores, una especie de provocador que agudiza nuestro pensamiento y cuestiona nuestras suposiciones.

Veo esta tensión a diario. Como revisor, recientemente he señalado artículos plagados de referencias inventadas y redacción superficial, señales inequívocas de un uso descuidado de la IA. Pero también utilizo la IA a diario en mi propia investigación, ya que puede fomentar el rigor y la creatividad en lugar de erosionarlos. Todo depende del enfoque: ¿estamos externalizando el pensamiento o utilizando estas herramientas para pensar mejor?

Esta distinción importa más que nunca. Cuando las universidades responden a la IA con una sospecha generalizada, corremos el riesgo de inducir a los estudiantes a guardar secreto, precisamente el comportamiento que decimos aborrecer. La prohibición genera vergüenza, y la vergüenza hace tramposos.

Pero si creamos espacios para la transparencia y la crítica, la IA puede integrarse como una herramienta de curiosidad intelectual, en lugar de sumisión. Es fundamental que los estudiantes comprendan la importancia de investigar, leer y escribir por su cuenta, y que cuanto más se sabe, más se puede disfrutar intelectualmente de la IA.

Para mí, esto no es solo una teoría. Es posible que mi vida como cineasta me haya preparado para trabajar con máquinas de forma creativa; no se puede hacer ninguna película sin tecnología. Además, siempre he escrito, tanto académica como creativamente, así que no me preocupa colaborar con la IA ni usar sus sugerencias o desecharlas. 

También es una forma divertida de pensar y escribir. Mi próximo libro,  “Intimidad con la IA y Psicoanálisis”  ( Routledge, a finales de este año ), explora las dimensiones culturales y psicológicas de nuestra relación en constante evolución con los modelos lingüísticos. Lo que nos perturba, sostengo, no es solo el miedo al plagio, sino la extraña sensación de que la IA ahora ocupa el espacio simbólico del diálogo mismo. Ya no es solo una herramienta. Habla. Y al hacerlo, perturba las estructuras tradicionales de enseñanza y autoridad.

Esta incomodidad es comprensible, pero no justifica la timidez intelectual. Consideremos algunas posibilidades: un estudiante de doctorado en teoría poscolonial podría solicitar a un LLM contralecturas de un texto, no para plagiarlas, sino para refinar su propia postura. Un estudiante de grado en política ambiental podría usar IA para simular debates con las partes interesadas, lo que le permitirá comprender mejor los argumentos opuestos. En mi práctica, suelo someter mis borradores a varios LLM para obtener retroalimentación crítica. Ofrecen ideas para considerar y plantean preguntas desafiantes, si se les anima a hacerlo. Además, cuando un LLM malinterpreta algo, a menudo significa que un lector humano también podría hacerlo. Estos no son atajos. Son herramientas para la precisión y la creatividad.

Cada nueva tecnología ha generado ansiedad: la calculadora, internet, el procesador de textos. Pero la historia ha demostrado que lo importante no es la tecnología en sí, sino cómo la usamos. Para mí, esto también es una cuestión de libertad educativa. La última vez que escribí para  Times Higher Education , trataba sobre el estado de la libertad académica en Polonia. Ahora, lo que está en juego es diferente, pero no menos urgente. Se nos pide que pensemos con máquinas.

Este cambio ya está ocurriendo. Un artículo reciente  del New Yorker  presenta a Luke Chang, académico de Dartmouth, quien pasó un largo viaje a casa desde el laboratorio discutiendo su problema de investigación con ChatGPT. Años atrás, podría haber reflexionado sobre el problema en solitario. Esta vez, intercambió ideas con la máquina, explicando, indagando y escuchando sus sugerencias de mejora. No se trataba solo de “usar” una herramienta. Era co-pensar. “Es una delicia. Siento que estoy acelerando en menos tiempo”, le dijo al autor. “Estoy acelerando mi aprendizaje y mejorando mi creatividad… disfrutando de mi trabajo como no lo había hecho en mucho tiempo”.

El lenguaje es revelador: deleite, aceleración, alegría. Palabras que no suelen asociarse con pánico moral. Esta es la tensión que enfrentamos en la educación superior: la IA está aquí para que colaboremos con ella. La pregunta no es si esto sucederá. Ya está sucediendo. La pregunta es si la afrontamos con sospecha o con pedagogía.

Históricamente, el pánico moral siempre ha acompañado a las nuevas tecnologías del pensamiento. Platón advirtió que la escritura erosionaría la memoria y solo produciría la ilusión de sabiduría. Se acusó a la imprenta de corromper el alma. La verdadera ansiedad, entonces y ahora, es simbólica: el temor a que el centro del conocimiento se desplace, a que el diálogo abandone la sala.

La IA reabre la misma pregunta que Platón temía: ¿puede la sabiduría sobrevivir a su separación del hablante? Ya no solo leemos. Hablamos con el texto.

Hoy en día, ese diálogo podría darse a veces entre un investigador y una máquina durante un viaje en coche por New Hampshire. Siendo sinceros, ya lo sabemos. La IA no es solo un motor de búsqueda. Se está convirtiendo en un aliado en forma de pensamiento.

Nuestro trabajo ahora es garantizar que esta asociación sea consciente, ética y transformadora, y no que se desarrolle en silencio o, peor aún, con miedo.

Agnieszka Piotrowska es académica, cineasta galardonada y coach de vida psicoanalítica. Supervisa a estudiantes de doctorado en las universidades de Oxford Brookes y Staffordshire y es profesora visitante en  la Universidad de Gdansk . Su nuevo libro,  “Intimidad con IA y Psicoanálisis”,  será publicado por Routledge en noviembre.

0 Comments

Submit a Comment

Tu dirección de correo electrónico no será publicada. Los campos requeridos están marcados *

PUBLICACIONES

Libros

Capítulos de libros

Artículos académicos

Columnas de opinión

Comentarios críticos

Entrevistas

Presentaciones y cursos

Actividades

Documentos de interés

Google académico

DESTACADOS DE PORTADA

Artículos relacionados

Share This