Enmarcar esta tecnología como una “herramienta” útil disfraza cuánto guía cada elemento del pensamiento crítico que los académicos buscan cultivar, dice James Garvey
James Garvey, 24 de febrero de 2026 (Traducción automática de Google)
Puede que no estemos de acuerdo sobre lo que es la inteligencia artificial (IA) o lo que significa para el futuro de la educación superior, pero hemos decidido cómo hablar de ello. En las políticas universitarias y los manuales del curso, la IA se enmarca principalmente como una herramienta, un tutor o un asistente útil. Estas metáforas parecen aportar claridad a la discusión. Se sienten neutrales y pragmáticos. No lo son.
Las metáforas tienen influencias bien conocidas y cuidadosamente investigadas en la forma en que pensamos sobre cosas complejas. Esta es en parte la razón por la que son utilizados tan eficazmente por escritores de discursos políticos, empresas de relaciones públicas, médicos de giro y anunciantes. Las metáforas abren algunas vías de pensamiento y cierran otras, y lo hacen principalmente sin que nos demos cuenta.
En un famoso estudio de los psicólogos de Stanford Paul Thibodeau y Lera Boroditsky, a los participantes se les dio un breve párrafo sobre el crimen en la ciudad ficticia de Addison. Para un grupo, el crimen fue enmarcado como una bestia y, para el otro, como una plaga. Cuando se les pidió que recomendaran soluciones, aquellos que leían sobre bestias sugirieron vigilancia y castigo, mientras que aquellos que leían sobre plagas tenían significativamente más probabilidades de sugerir reforma social y rehabilitación.
Como dicen los autores, “lejos de ser meros adornos retóricos, las metáforas tienen profundas influencias en cómo conceptualizamos y actuamos con respecto a importantes cuestiones sociales”. Lo sorprendente es que los participantes no reconocieron el papel que tenían las metáforas en la configuración de su pensamiento. Explicaron sus respuestas señalando las mismas estadísticas de delincuencia: solo el 2 por ciento mencionó metáforas.
Como imaginar el crimen como una bestia, pensar en la IA como una herramienta abre algunas líneas de pensamiento y cierra otras. Sugiere neutralidad moral (las herramientas se pueden usar para el bien o para el mal) y un alto grado de control. Un martillo es solo un martillo. Esta forma de pensar coloca la responsabilidad moral directamente sobre el usuario. Cuando las cosas se desvían, el problema es el mal uso o la mala aplicación. Así que hablamos sobre el uso responsable de la IA, la importancia de la evaluación crítica de los resultados, la ética de la IA, todo bajo la bandera de la alfabetización en IA.
Este encuadre hace que el papel de la IA en la configuración activa de nuestros pensamientos sea más difícil de ver. Dejamos de hacer preguntas importantes sobre las responsabilidades morales de las empresas y programadores que diseñan y comercializan estos sistemas.
Es menos probable que nos preguntemos cómo la IA está influyendo en nuestras interpretaciones, impulsando la síntesis de nuestras ideas y manipulando nuestro juicio. ¿Qué tipo de hábitos intelectuales fomenta o socava? Es difícil, después de todo, para las criaturas que se piensan a sí mismas como usuarios de herramientas por excelencia, imaginar una herramienta que participa en nuestro pensamiento, tal vez incluso constituye en parte nuestra comprensión del mundo. Pero los sistemas de IA hacen cada vez más que nuestros pensamientos sean lo que son.
¿Es alarmista, entonces, hablar sobre la aparición de un segundo plan de estudios oculto? La metáfora del asistente sugiere una jerarquía en el aula, con profesores y estudiantes en control y la IA ofreciendo ayuda cuando se les pide. Esto oscurece esos muchos momentos en los que un tutor de IA no solo está ayudando, sino dirigiendo el aprendizaje, estructurando explicaciones, destacando las interpretaciones, modelando formas de pensar sobre nuevos temas y sugiriendo qué pensar a continuación.
Este es un cambio notable en la forma en que llegamos a conocer: un plan de estudios mediado por IA que se ejecuta junto con nuestros planes de lecciones previstos y objetivos de aprendizaje. No estoy seguro de que nosotros, o nuestros estudiantes, siempre reconozcamos cuando esto está sucediendo. Una vez más, la metáfora hace que sea más difícil resolver lo que realmente está pasando.
Las metáforas también pueden engañarnos de maneras menos dramáticas. Cuando la IA produce resultados preocupantes, nos apresuramos a decir, por ejemplo, que “Grok es racista” o que el sistema se ha “convierto en un deshonesto”. La IA antropomorfizante no solo describe mal lo que son estos sistemas y lo que están haciendo. Hace que sea más fácil mirar hacia otro lado de nuestro propio papel como usuarios y de las opciones institucionales y corporativas integradas en los sistemas en los que nos apoyamos. La responsabilidad se deriva, y con ella nuestra capacidad de juicio crítico.
Tanto la herramienta como las metáforas del asistente invitan a la confianza donde debería haber más escrutinio, vacilación y cuidado. ¿Qué se deduce de todo esto?
Las metáforas pueden ser útiles cuando estamos tratando de manejar algo desconocido. Pero para el trabajo más lento y cuidadoso de la planificación de lecciones y la redacción de políticas, ahora se están interponiendo. En este punto, ayuda cambiar conscientemente a un vocabulario más técnico, eligiendo las palabras con cuidado, no convenientemente.
Cuando hacemos esto, algunas cosas importantes se ven mejor. Podemos dejar de hablar de “sugerencia”, “lluvia de ideas” o “responder preguntas” de IA y, en su lugar, hablar de resultados algorítmicos producidos bajo restricciones particulares. Ya no estamos “pidiendo IA”, sino participando en la generación de texto probabilístico.
Ese cambio hace que nuestro propio papel interpretativo y evaluativo sea más difícil de ignorar. Si nos alejamos de hablar de “alucinaciones” y en su lugar hablamos de “fallo predictivo de texto”, la verificación se convierte en una práctica ordinaria, no en un paso opcional. El aviso comienza a parecerse a lo que realmente es: diseño experimental del lenguaje, no usar una herramienta como una máquina de escribir o tener una conversación con un tutor.
Insistir en la precisión técnica cuando importa puede ayudarnos a resistir la idea fácil de que la IA es un ayudante, listo para ayudar. En cambio, debemos mantener nuestro enfoque en el incómodo pensamiento de que estos sistemas estructuran parcial y encubiertamente lo que decimos, pensamos y aprendemos.
No necesitamos metáforas mejores o diferentes para la inteligencia artificial. Necesitamos menos, junto con una forma más disciplinada de pensar, hablar y escribir que mantenga la responsabilidad moral, el juicio y la pedagogía en nuestras manos humanas.
James Garvey es presidente y profesor de artes liberales en la Facultad de Estudios Creativos de Detroit.
0 Comments