Los profesores utilizan ChatGPT y algunos estudiantes no están contentos con ello
Los estudiantes lo consideran hipócrita. Una estudiante de último año de la Universidad Northeastern exigió la devolución de su matrícula. Pero los profesores afirman que las herramientas de IA generativa les ayudan a ser mejores en sus trabajos.
En febrero, Ella Stapleton, entonces estudiante de último año en la Universidad Northeastern, estaba revisando apuntes de su clase de comportamiento organizacional cuando notó algo extraño. ¿Se trataba de una consulta de su profesor a ChatGPT?
A mitad del documento, que su profesor de negocios había preparado para una lección sobre modelos de liderazgo, se le indicó a ChatGPT que «expandiera todas las áreas. Sea más detallado y específico». Le seguía una lista de rasgos de liderazgo positivos y negativos, cada uno con una definición prosaica y un ejemplo con viñetas.
La Sra. Stapleton le envió un mensaje de texto a una amiga en la clase.
“¿Viste las notas que puso en Canvas?”, escribió, refiriéndose a la plataforma de software de la universidad para alojar materiales de los cursos. “Las hizo con ChatGPT”.
—¡Dios mío! ¡Para! —respondió el compañero—. ¿Qué demonios?
La Sra. Stapleton decidió investigar un poco. Revisó las presentaciones de su profesor y descubrió otras señales reveladoras de IA: texto distorsionado, fotos de oficinistas con partes del cuerpo extrañas y errores ortográficos flagrantes.
No estaba contenta. Dado el coste y la reputación de la escuela, esperaba una educación de primer nivel. Este curso era obligatorio para su especialización en negocios; su programa de estudios prohibía las «actividades académicamente deshonestas», incluido el uso no autorizado de inteligencia artificial o chatbots.
“Nos dice que no lo usemos, y luego lo usa él mismo”, dijo.
La Sra. Stapleton presentó una queja formal ante la escuela de negocios de Northeastern, alegando el uso no revelado de IA, así como otros problemas con su estilo de enseñanza, y solicitó el reembolso de la matrícula de esa clase. Como una cuarta parte de la factura total del semestre, esto ascendería a más de $8,000.

Cuando se lanzó ChatGPT a finales de 2022, causó pánico en todos los niveles educativos porque facilitaba enormemente las trampas . A los estudiantes que se les pedía que escribieran un trabajo de historia o un análisis literario, la herramienta podía hacerlo en cuestión de segundos. Algunas escuelas lo prohibieron, mientras que otras implementaron servicios de detección de IA, a pesar de las preocupaciones sobre su precisión .
Pero, ¡cómo han cambiado las tornas! Ahora los estudiantes se quejan en sitios como Rate My Professors de la excesiva dependencia de sus instructores de la IA y del escrutinio minucioso de los materiales del curso en busca de palabras que ChatGPT suele abusar, como “crucial” y “profundizar”. Además de denunciar la hipocresía, presentan un argumento económico: pagan, a menudo bastante, para que les enseñen humanos, no un algoritmo que ellos también podrían consultar gratis.
Por su parte, los profesores afirmaron utilizar chatbots de IA como herramienta para ofrecer una mejor educación. Los instructores entrevistados por The New York Times afirmaron que los chatbots les ahorraron tiempo, les ayudaron con la carga de trabajo excesiva y sirvieron como asistentes de enseñanza automatizados.
Su número está creciendo. En una encuesta nacional realizada el año pasado a más de 1800 docentes de educación superior, el 18 % se describió como usuario frecuente de herramientas de IA generativa; en una encuesta repetida este año, ese porcentaje casi se duplicó, según Tyton Partners, la consultora que realizó la investigación. La industria de la IA quiere ayudar y obtener beneficios: las startups OpenAI y Anthropic crearon recientemente versiones empresariales de sus chatbots diseñados para universidades.
(The Times ha demandado a OpenAI por violación de derechos de autor por utilizar contenido noticioso sin permiso).
La IA generativa ha llegado para quedarse, pero las universidades tienen dificultades para adaptarse a las normas cambiantes. Ahora son los profesores quienes están en la curva de aprendizaje y, al igual que el profesor de la Sra. Stapleton, sortean las dificultades de la tecnología y el desprecio de sus estudiantes.
Alcanzando la calificación
El otoño pasado, Marie, de 22 años, escribió un ensayo de tres páginas para un curso en línea de antropología en la Universidad del Sur de New Hampshire. Buscó su calificación en la plataforma en línea de la universidad y se alegró de haber recibido una A. Pero en una sección de comentarios, su profesor publicó accidentalmente un intercambio con ChatGPT. Incluía la rúbrica de calificación que el profesor le había pedido al chatbot que usara y una solicitud de “retroalimentación muy amable” para Marie.
“Desde mi perspectiva, el profesor ni siquiera leyó nada de lo que escribí ” , dijo Marie, quien pidió usar su segundo nombre y solicitó que no se revelara la identidad de su profesor. Podía comprender la tentación de usar IA. Trabajar en la escuela era un “tercer trabajo” para muchos de sus instructores, quienes podrían tener cientos de estudiantes, dijo Marie, y no quería avergonzar a su profesor.
Aun así, Marie se sintió agraviada y confrontó a su profesor durante una reunión de Zoom. El profesor le dijo que sí leía los ensayos de sus alumnos, pero que usaba ChatGPT como guía, algo que la escuela permitía.
Robert MacAuslan, vicepresidente de IA en Southern New Hampshire, afirmó que la universidad creía en el poder de la IA para transformar la educación y que existían directrices tanto para el profesorado como para el alumnado para garantizar que esta tecnología potencie, en lugar de sustituir, la creatividad y la supervisión humanas. Una recomendación para el profesorado prohíbe el uso de herramientas como ChatGPT y Grammarly en lugar de ofrecer retroalimentación auténtica y centrada en el ser humano.
“Estas herramientas nunca deberían utilizarse para que ‘hagan el trabajo’ por ellos”, dijo el Dr. MacAuslan. “Más bien, pueden considerarse mejoras a sus procesos ya establecidos”.
Después de que un segundo profesor apareció para usar ChatGPT para darle su opinión, Marie se transfirió a otra universidad.
Paul Shovlin, profesor de inglés en la Universidad de Ohio en Athens, Ohio, dijo que comprendía su frustración. “No me entusiasma mucho”, dijo el Dr. Shovlin tras conocer la experiencia de Marie. El Dr. Shovlin también es profesor asociado de IA , cuya función consiste en desarrollar las maneras adecuadas de incorporar la IA en la enseñanza y el aprendizaje.
“El valor que aportamos como instructores reside en la retroalimentación que brindamos a los estudiantes”, afirmó . “ Son las conexiones humanas que forjamos con los estudiantes como seres humanos que leen sus palabras y se ven impactados por ellas”.
El Dr. Shovlin es partidario de incorporar la IA a la enseñanza, pero no solo para facilitarle la vida al profesor. Los estudiantes necesitan aprender a usar la tecnología responsablemente y “desarrollar una ética con la IA”, afirmó, ya que es casi seguro que la usarán en el ámbito laboral. No hacerlo correctamente podría tener consecuencias. “Si te equivocas, te despedirán”, afirmó el Dr. Shovlin.
Un ejemplo que usa en sus propias clases: En 2023, funcionarios de la facultad de educación de la Universidad de Vanderbilt respondieron a un tiroteo masivo en otra universidad enviando un correo electrónico a los estudiantes pidiendo cohesión comunitaria. El mensaje, que describía la promoción de una “cultura del cuidado” mediante el “establecimiento de relaciones sólidas”, incluía una frase al final que revelaba que se había utilizado ChatGPT para redactarlo . Después de que los estudiantes criticaran la externalización de la empatía a una máquina, los funcionarios involucrados dimitieron temporalmente .
No todas las situaciones son tan claras. El Dr. Shovlin afirmó que era complicado establecer reglas, ya que el uso razonable de la IA puede variar según la asignatura. El Centro de Enseñanza, Aprendizaje y Evaluación, donde es investigador, cuenta, en cambio, con ” principios ” para la integración de la IA, uno de los cuales evita un enfoque universal.
El Times contactó a docenas de profesores cuyos estudiantes habían mencionado el uso de IA en reseñas en línea. Los profesores comentaron que habían usado ChatGPT para crear tareas y exámenes de programación informática sobre lectura obligatoria, incluso cuando los estudiantes se quejaban de que los resultados no siempre eran coherentes. Lo usaron para organizar la retroalimentación que les daban a los estudiantes o para que fuera más comprensiva. Como expertos en sus campos, comentaron, pueden reconocer cuándo alucina o se equivoca en los datos.
No hubo consenso sobre qué era aceptable. Algunos reconocieron el uso de ChatGPT para ayudar a calificar el trabajo de los estudiantes; otros criticaron la práctica. Algunos enfatizaron la importancia de la transparencia con los estudiantes al implementar la IA generativa, mientras que otros dijeron que no revelaron su uso debido al escepticismo de los estudiantes sobre la tecnología.
Sin embargo, la mayoría consideró que la experiencia de la Sra. Stapleton en Northeastern, donde su profesor aparentemente usó IA para generar apuntes y diapositivas, fue perfectamente aceptable. El Dr. Shovlin opinaba lo mismo, siempre y cuando el profesor editara lo que ChatGPT generaba para reflejar su experiencia. El Dr. Shovlin lo comparó con una práctica tradicional en el ámbito académico: utilizar contenido, como planes de clase y casos prácticos, de editoriales externas.
Decir que un profesor es “una especie de monstruo” por usar IA para generar diapositivas “es, para mí, ridículo”, dijo.
La calculadora con esteroides
Shingirai Christopher Kwaramba, profesor de negocios de la Universidad Commonwealth de Virginia, describió ChatGPT como un socio que ahorra tiempo. Los planes de clase que antes tardaban días en desarrollarse ahora toman horas, comentó. Lo utiliza, por ejemplo, para generar conjuntos de datos de cadenas de tiendas ficticias, que los estudiantes utilizan en un ejercicio para comprender diversos conceptos estadísticos.
“Lo veo como la era de la calculadora con esteroides”, dijo el Dr. Kwaramba.
El Dr. Kwaramba dijo que ahora tenía más tiempo para las horas de oficina de los estudiantes.
Otros profesores, como David Malan de Harvard, afirmaron que el uso de IA se tradujo en menos estudiantes que acudían a las horas de consulta para recibir apoyo académico. El Dr. Malan, profesor de informática, ha integrado un chatbot de IA personalizado en una clase popular que imparte sobre fundamentos de programación informática. Cientos de sus estudiantes pueden recurrir a él para obtener ayuda con sus tareas de programación.
El Dr. Malan ha tenido que ajustar el chatbot para perfeccionar su enfoque pedagógico, de modo que solo ofrezca orientación y no respuestas completas. La mayoría de los 500 estudiantes encuestados en 2023, el primer año en que se ofreció, afirmaron haberlo encontrado útil .
En lugar de dedicar tiempo a “preguntas más mundanas sobre material introductorio” durante las horas de oficina, él y sus asistentes de enseñanza priorizan las interacciones con los estudiantes en almuerzos semanales y hackatones: “momentos y experiencias más memorables”, dijo el Dr. Malan.
Katy Pearce, profesora de comunicación de la Universidad de Washington, desarrolló un chatbot de IA personalizado entrenándolo con versiones de tareas antiguas que ella misma había calificado. Ahora puede ofrecer a los estudiantes retroalimentación sobre su escritura, similar a la suya, en cualquier momento del día o de la noche. Ha sido beneficioso para estudiantes que, de otro modo, dudarían en pedir ayuda, afirmó.
“¿Llegará un momento en el futuro previsible en que gran parte del trabajo de los asistentes de cátedra de posgrado pueda ser realizado por IA?”, dijo. “Sí, absolutamente”.
¿Qué pasa entonces con la cantera de futuros profesores que surgirían de las filas de los asistentes de enseñanza?
“Sin duda será un problema”, afirmó el Dr. Pearce.
Un momento de enseñanza
Tras presentar su queja en Northeastern, la Sra. Stapleton se reunió con varias autoridades de la escuela de negocios. En mayo, al día siguiente de su ceremonia de graduación, las autoridades le informaron que no le devolverían el dinero de la matrícula.
Rick Arrowood, su profesor, se mostró arrepentido por el episodio. El Dr. Arrowood, profesor adjunto con casi dos décadas de experiencia docente, comentó que había subido los archivos y documentos de su clase a ChatGPT, el motor de búsqueda de IA Perplexity y un generador de presentaciones de IA llamado Gamma para “darles una nueva imagen”. A simple vista, comentó, las notas y presentaciones que habían generado se veían geniales.
“En retrospectiva, desearía haberlo analizado más de cerca”, dijo.
Subió los materiales en línea para que los estudiantes los revisaran, pero enfatizó que no los usaba en clase, porque prefería que las clases se centraran en el debate. Se dio cuenta de los defectos de los materiales solo cuando las autoridades escolares le preguntaron sobre ellos.
La vergonzosa situación le hizo comprender, según él, que los profesores deberían abordar la IA con más cautela e informar a los estudiantes cuándo y cómo se utiliza. Northeastern emitió recientemente una política formal sobre IA; esta exige la atribución cuando se utilizan sistemas de IA y la revisión de los resultados para garantizar su precisión e idoneidad. Una portavoz de Northeastern afirmó que la universidad “adopta el uso de la inteligencia artificial para mejorar todos los aspectos de su docencia, investigación y operaciones”.
“Me dedico por completo a la enseñanza”, dijo el Dr. Arrowood. “Si mi experiencia puede ser un aprendizaje para la gente, entonces, bueno, ese es mi punto de partida”.
0 Comments