Look at any student academic-integrity policy, and you’ll find the same message: Submit work that reflects your own thinking or face discipline. A year ago, this was just about the most common-sense rule on Earth. Today, it’s laughably naïve.
There’s a remarkable disconnect between how professors and administrators think students use generative AI on written work and how we actually use it. Many assume that if an essay is written with the help of ChatGPT, there will be some sort of evidence — it will have a distinctive “voice,” it won’t make very complex arguments, or it will be written in a way that AI-detection programs will pick up on. Those are dangerous misconceptions. In reality, it’s very easy to use AI to do the lion’s share of the thinking while still submitting work that looks like your own. Once that becomes clear, it follows that massive structural change will be needed if our colleges are going to keep training students to think critically.
The common fear among teachers is that AI is actually writing our essays for us, but that isn’t what happens. You can hand ChatGPT a prompt and ask it for a finished product, but you’ll probably get an essay with a very general claim, middle-school-level sentence structure, and half as many words as you wanted. The more effective, and increasingly popular, strategy is to have the AI walk you through the writing process step by step. You tell the algorithm what your topic is and ask for a central claim, then have it give you an outline to argue this claim. Depending on the topic, you might even be able to have it write each paragraph the outline calls for, one by one, then rewrite them yourself to make them flow better.
The common fear among teachers is that AI is actually writing our essays for us, but this isn’t what happens.
As an example, I told ChatGPT, “I have to write a 6-page close reading of the Iliad. Give me some options for very specific thesis statements.” (Just about every first-year student at my university has to write a paper resembling this one.) Here is one of its suggestions: “The gods in the Iliad are not just capricious beings who interfere in human affairs for their own amusement but also mirror the moral dilemmas and conflicts that the mortals face.” It also listed nine other ideas, any one of which I would have felt comfortable arguing. Already, a major chunk of the thinking had been done for me. As any former student knows, one of the main challenges of writing an essay is just thinking through the subject matter and coming up with a strong, debatable claim. With one snap of the fingers and almost zero brain activity, I suddenly had one.
My job was now reduced to defending this claim. But ChatGPT can help here too! I asked it to outline the paper for me, and it did so in detail, providing a five-paragraph structure and instructions on how to write each one. For instance, for “Body Paragraph 1: The Gods as Moral Arbiters,” the program wrote: “Introduce the concept of the gods as moral arbiters in the Iliad. Provide examples of how the gods act as judges of human behavior, punishing or rewarding individuals based on their actions. Analyze how the gods’ judgments reflect the moral codes and values of ancient Greek society. Use specific passages from the text to support your analysis.” All that was left now was for me to follow these instructions, and perhaps modify the structure a bit where I deemed the computer’s reasoning flawed or lackluster.
The vital takeaway here is that it’s simply impossible to catch students using this process, and that for them, writing is no longer much of an exercise in thinking. The problem isn’t with a lack of AI-catching technology — even if we could definitively tell whether any given word was produced by ChatGPT, we still couldn’t prevent cheating. The ideas on the paper can be computer-generated while the prose can be the student’s own. No human or machine can read a paper like this and find the mark of artificial intelligence.
When we want students to learn how to think, assignments become essentially useless once AI gets involved.
There are two possible conclusions. One is that we should embrace the role AI is beginning to play in the writing process. “So what that essays are easier to write now? AI is here for good; students might as well learn to use it.” Of course, it’s important to learn to put together a cohesive piece of written work, so it makes perfect sense to embrace AI on assignments that are meant to teach this skill. In fact, it would be counterproductive not to: If a tool is useful and widely available, students should learn how to use it. But if this is our only takeaway, we neglect the essay’s value as a method for practicing critical thinking. When we want students to learn how to think — something I’m sure all educators consider a top priority — assignments become essentially useless once AI gets involved.
So rather than fully embracing AI as a writing assistant, the reasonable conclusion is that there needs to be a split between assignments on which using AI is encouraged and assignments on which using AI can’t possibly help. Colleges ought to prepare their students for the future, and AI literacy will certainly be important in ours. But AI isn’t everything. If education systems are to continue teaching students how to think, they need to move away from the take-home essay as a means of doing this, and move on to AI-proof assignments like oral exams, in-class writing, or some new style of schoolwork better suited to the world of artificial intelligence.
As it stands right now, our systems don’t accomplish either of those goals. We don’t fully lean into AI and teach how to best use it, and we don’t fully prohibit it to keep it from interfering with exercises in critical thinking. We’re at an awkward middle ground where nobody knows what to do, where very few people in power even understand that something is wrong. At any given time, I can look around my classroom and find multiple people doing homework with the help of ChatGPT. We’re not being forced to think anymore.
People worry that ChatGPT might “eventually” start rendering major institutions obsolete. It seems to me that it already has.
Soy estudiante. No tienes ni idea de cuánto usamos ChatGPT
Ningún profesor ni programa informático podría darse cuenta.
Por Owen Kichizo Terry, 12 de MAYO de 2023
Si lees la política de integridad académica de cualquier estudiante, encontrarás el mismo mensaje: Presenta trabajos que reflejen tu propio pensamiento o afronta la disciplina. Hace un año, esta norma era la más sensata del mundo. Hoy resulta ridículamente ingenua.
Hay una notable desconexión entre cómo los profesores y administradores piensan que los estudiantes utilizan la IA generativa en los trabajos escritos y cómo la utilizamos realmente. Muchos asumen que si un ensayo está escrito con la ayuda de ChatGPT, habrá algún tipo de evidencia: tendrá una “voz” distintiva, no tendrá argumentos muy complejos o estará escrito de una forma que los programas de detección de IA detectarán. Son ideas erróneas y peligrosas. En realidad, es muy fácil utilizar la IA para que se encargue de la mayor parte de las ideas y, al mismo tiempo, presentar un trabajo que parezca propio. Una vez que esto quede claro, será necesario un cambio estructural masivo si queremos que nuestras universidades sigan formando a los estudiantes para que piensen de forma crítica.
El temor común entre los profesores es que la IA escriba nuestras redacciones por nosotros, pero eso no es lo que ocurre. Puedes entregarle a ChatGPT un tema y pedirle un producto acabado, pero probablemente obtendrás una redacción con una afirmación muy general, una estructura de frases de nivel de secundaria y la mitad de palabras de lo que querías. La estrategia más eficaz, y cada vez más popular, es dejar que la IA te guíe paso a paso por el proceso de redacción. Le dices al algoritmo cuál es tu tema y le pides una afirmación central, luego le pides que te dé un esquema para argumentar esta afirmación. Dependiendo del tema, incluso puedes pedirle que escriba uno a uno los párrafos del esquema y luego reescribirlos tú mismo para que fluyan mejor.
El temor más común entre los profesores es que la IA escriba nuestras redacciones por nosotros, pero no es así.
Por ejemplo, le dije a ChatGPT: “Tengo que escribir una lectura detallada de 6 páginas de la Ilíada. Dame algunas opciones para declaraciones de tesis muy específicas”. (Casi todos los estudiantes de primer curso de mi universidad tienen que escribir un trabajo parecido a éste). He aquí una de sus sugerencias: “Los dioses de la Ilíada no son sólo seres caprichosos que interfieren en los asuntos humanos para su propia diversión, sino que también reflejan los dilemas y conflictos morales a los que se enfrentan los mortales”. También enumeraba otras nueve ideas, con cualquiera de las cuales me habría sentido cómodo argumentando. Una gran parte de la reflexión ya estaba hecha para mí. Como sabe cualquier antiguo alumno, uno de los principales retos de escribir una redacción es pensar en el tema y proponer una afirmación sólida y discutible. Con un chasquido de dedos y casi sin actividad cerebral, de repente tenía una.
Mi trabajo se reducía ahora a defender esta afirmación. Pero ChatGPT también puede ayudar. Le pedí que me hiciera un esquema del artículo, y lo hizo con todo detalle, proporcionándome una estructura de cinco párrafos e instrucciones sobre cómo escribir cada uno de ellos. Por ejemplo, para el “Párrafo 1: Los dioses como árbitros morales”, el programa escribió: “Introduce el concepto de los dioses como árbitros morales en la Ilíada. Proporcione ejemplos de cómo los dioses actúan como jueces del comportamiento humano, castigando o recompensando a los individuos en función de sus acciones. Analice cómo los juicios de los dioses reflejan los códigos morales y los valores de la antigua sociedad griega. Utiliza pasajes concretos del texto para apoyar tu análisis”. Lo único que me quedaba por hacer era seguir estas instrucciones y, tal vez, modificar un poco la estructura si consideraba que el razonamiento del ordenador era erróneo o mediocre.
Lo más importante es que es imposible pillar a los alumnos utilizando este proceso y que, para ellos, escribir ya no es un ejercicio de reflexión. El problema no estriba en la falta de tecnología de detección de la IA: aunque pudiéramos saber con certeza si una palabra determinada ha sido producida por ChatGPT, no podríamos evitar que se copiara. Las ideas del trabajo pueden ser generadas por ordenador, mientras que la prosa puede ser la del propio estudiante. Ningún ser humano o máquina puede leer un trabajo así y encontrar la marca de la inteligencia artificial.
Cuando queremos que los alumnos aprendan a pensar -algo que estoy seguro que todos los educadores consideran una prioridad absoluta- las tareas se vuelven esencialmente inútiles una vez que interviene la IA.
Así que, en lugar de adoptar plenamente la IA como asistente de escritura, la conclusión razonable es que debe haber una división entre las tareas en las que se fomenta el uso de la IA y las tareas en las que el uso de la IA no puede ayudar. Las universidades deben preparar a sus estudiantes para el futuro, y la alfabetización en IA será sin duda importante en el nuestro. Pero la IA no lo es todo. Si los sistemas educativos quieren seguir enseñando a los estudiantes a pensar, tienen que dejar de lado la redacción para llevar a casa como medio para hacerlo y pasar a tareas a prueba de IA, como exámenes orales, redacción en clase o algún nuevo estilo de trabajo escolar que se adapte mejor al mundo de la inteligencia artificial.
En la situación actual, nuestros sistemas no cumplen ninguno de estos objetivos. No nos inclinamos totalmente por la IA y enseñamos cómo utilizarla mejor, y no la prohibimos del todo para evitar que interfiera con los ejercicios de pensamiento crítico. Estamos en un incómodo punto intermedio en el que nadie sabe qué hacer, en el que muy pocas personas con poder entienden siquiera que algo va mal. En un momento dado, puedo mirar alrededor de mi clase y encontrar a varias personas haciendo los deberes con la ayuda de ChatGPT. Ya no nos obligan a pensar.
A la gente le preocupa que ChatGPT pueda “acabar” dejando obsoletas a las grandes instituciones. A mí me parece que ya lo ha hecho.
0 Comments