En 2022, nuestro equipo comenzó a incorporar la IA generativa, principalmente ChatGPT, en nuestro flujo de trabajo académico diario. La utilizamos para transformar notas desordenadas en esquemas organizados, mejorar nuestra escritura en inglés y redactar correos electrónicos y narrativas de proyectos. El impacto fue inmediato y útil.
En 2022, nuestro equipo comenzó a incorporar la IA generativa, principalmente ChatGPT, en nuestro flujo de trabajo académico diario. La utilizamos para transformar notas desordenadas en esquemas organizados, mejorar nuestra escritura en inglés y redactar correos electrónicos y narrativas de proyectos. El impacto fue inmediato y útil.
Sin embargo, esta integración suscitó un debate crucial sobre la ética. Si íbamos a incorporar la IA generativa en nuestras prácticas de investigación, debíamos considerar preguntas clave: ¿Qué datos nunca deberían incluirse? ¿Cómo podemos evitar el sesgo? ¿Cómo documentamos nuestro uso de la IA de manera responsable? ¿Y cómo podemos garantizar la autoría y la rendición de cuentas?
A medida que desarrollábamos estas habilidades, vislumbramos el potencial para ahorrar tiempo y aumentar la productividad. Sin embargo, durante este período, nos encontramos con una pregunta intrigante: “¿Quién es el dueño del tiempo ahorrado?”.
Las preguntas sobre el tiempo en el ámbito académico nunca son puramente logísticas. Los académicos han argumentado durante mucho tiempo que la investigación opera dentro de lo que Ulrike Felt denomina la «cronopolítica» de la producción de conocimiento: regímenes institucionales que determinan qué tiempo se valora, se acelera o se invisibiliza (Ulrike Felt 2025). La eficiencia, en este sentido, no es neutral; redistribuye las expectativas y, a menudo de forma silenciosa, el poder.
Los recientes debates en el ámbito académico sobre la ralentización , la reducción de la producción y la protección del tiempo de reflexión pueden carecer de romanticismo, pero son prácticos (Adrian Barnett 2026).
El Manifiesto de la Ciencia Lenta (Manifiesto de la Ciencia Lenta 2010) instó a los investigadores a resistir la cultura de la productividad constante hace más de una década. La filósofa Isabelle Stengers ha argumentado de manera similar que « otra ciencia es posible » solo si los investigadores recuperan las condiciones temporales necesarias para el pensamiento cuidadoso (Isabelle Stengers 2011).
En un sistema que ya está bajo presión, cualquier mejora en la eficiencia puede generar más margen de maniobra o exacerbar las presiones existentes. La introducción de la IA generativa hace que esta elección sea inevitable.
Cuando la rapidez se convierte en la norma
En cuanto al papel, el ahorro de tiempo es significativo. Los borradores se producen más rápidamente, la corrección de estilo se vuelve menos ardua y la lluvia de ideas y la elaboración de esquemas pueden ser más rápidas que mirar una página en blanco. Para los investigadores que manejan varios idiomas o tienen grandes responsabilidades docentes y administrativas, este tipo de apoyo puede significar la diferencia entre completar una tarea y abandonarla.
Sin embargo, el mundo académico no es un sistema cerrado en el que el ahorro de tiempo conduzca automáticamente al alivio. Es un entorno competitivo en el que la rapidez se convierte en el nuevo estándar.
Experimentamos este cambio directamente. Usamos IA generativa para crear un resumen de una página de un extenso documento de política en menos de una hora, no durante toda una noche. Enviamos el resumen a un colega y nos sentimos aliviados.
La semana siguiente, la solicitud de un «resumen rápido» se convirtió en algo habitual. Poco después, con la fecha límite de la subvención acercándose, se esperaba que pudiéramos adaptarnos «rápidamente» porque, al fin y al cabo, teníamos esas herramientas a nuestra disposición.
En lugar de aligerar la carga de trabajo, la semana se volvió aún más ajetreada.
Este fenómeno se conoce como inflación de expectativas: cuando la velocidad está disponible, también se da por sentada. Este patrón coincide con lo que el sociólogo Hartmut Rosa describe como aceleración social : una condición en la que los avances tecnológicos destinados a ahorrar tiempo intensifican paradójicamente el ritmo de vida, transformando la velocidad de una ventaja en una obligación.
Una vez que se da por sentada, deja de ser un beneficio y se convierte en la norma. En este escenario, el «dividendo de tiempo» generado ya no es para quien lo creó. Se reasigna sutilmente para satisfacer mayores exigencias: más entregables, plazos más ajustados, iteraciones adicionales y una mayor capacidad de respuesta. Por
eso, los argumentos a favor de la «ciencia lenta» han ganado terreno. En un sistema acelerado, el recurso escaso no es el texto, sino el tiempo para pensar, leer con atención, tutorizar, descansar y hacer menos cosas mejor. Si bien la IA puede reducir la fricción, también puede hacer que el sistema exija más de lo demás.
La carga de trabajo oculta
Aunque la IA puede acelerar el proceso de redacción, no alivia la responsabilidad que conlleva. Los investigadores aún deben garantizar la corrección de los hechos, la interpretación adecuada, las prácticas de citación, la confidencialidad, la imparcialidad y la consideración del daño potencial.
Si bien la IA generativa puede ayudar a crear un párrafo plausible en segundos, también puede ser inexacta, a veces de maneras sutiles que resultan difíciles de detectar. Podría suavizar la incertidumbre en una sensación de confianza injustificada, distorsionar el significado de un documento mientras suena fluido o sugerir referencias que parecen creíbles pero que en realidad no respaldan las afirmaciones hechas.
Por lo tanto, cuando se utiliza la IA de manera responsable, la tarea no termina con la creación del borrador; más bien, comienza una nueva fase de trabajo: la verificación y la supervisión humana.
Un pequeño ejemplo viene a la mente. Utilizamos IA para redactar una respuesta a los revisores. Esta tarea suele ser agotadora debido a la precisión y la diplomacia que exige.
El borrador inicial parecía adecuado. Sin embargo, detectamos una frase que exageraba sutilmente nuestros hallazgos. Otra afirmación estaba formulada con mayor contundencia de la que justificaban los datos. Además, aunque dos citas no eran incorrectas, estaban mal aplicadas. Los artículos no respaldaban el argumento tal como estaba escrito.
Dedicamos la noche a releer nuestras fuentes, reescribir la lógica y ajustar nuestras afirmaciones para que se ajustaran a los datos reales. El borrador se elaboró rápidamente, pero la responsabilidad seguía siendo fundamental.
Esto pone de relieve lo que llamamos el «impuesto de verificación»: el tiempo y el esfuerzo necesarios para garantizar que la producción asistida por IA sea segura, precisa y éticamente defendible. Esto incluye la verificación de hechos, la evaluación de fuentes, la detección de sesgos, la restauración de matices y la garantía de que la herramienta de IA no haya alterado involuntariamente el significado previsto.
Esta dinámica refleja lo que los estudiosos del trabajo han descrito durante mucho tiempo como la tensión entre el trabajo visible e invisible : la tendencia de las instituciones a medir lo cuantificable mientras pasan por alto el esfuerzo cognitivo y ético que mantiene la calidad.
Las instituciones a menudo celebran el tiempo visible ahorrado como menos horas dedicadas a la escritura, mientras pasan por alto el tiempo oculto necesario para la verificación. Esta discrepancia crea presión, ya que se espera que los investigadores sean más rápidos sin dejar de cumplir con los mismos altos estándares, sin un tiempo asignado para la debida diligencia adicional que ahora es necesaria.
A veces, la ironía es palpable: la herramienta puede reducir el trabajo en alguna parte de la investigación, pero aumenta el trabajo de vigilancia.
Cuando el dividendo de tiempo se invierte
La verificación no es el único costo oculto del uso de la IA. También puede crear una vulnerabilidad práctica: la dependencia de plataformas que no controlas. Cuando tu flujo de trabajo se vincula a una herramienta, cuenta o interfaz específica, te enfrentas a riesgos que pueden parecer triviales hasta que dejan de serlo.
Estos incluyen historiales perdidos, cambios en la configuración, desaparición de funciones, nuevas políticas de datos o problemas de acceso inesperados. En tales casos, el “tiempo ahorrado” no solo desaparece, sino que puede revertirse, lo que se traduce en horas dedicadas a reconstruir un trabajo que creías haber almacenado de forma segura.
La lección aquí no es evitar por completo la IA generativa. En cambio, trata la IA generativa como cualquier otra infraestructura de investigación: incorpora redundancia, realiza copias de seguridad y determina qué pertenece a tus propios sistemas en lugar de a una ventana de chat.
Entonces, ¿la IA ayuda o perjudica? La respuesta es ambas. Esta dualidad la convierte más en una cuestión profesional que en un simple debate tecnológico. La
IA generativa es beneficiosa cuando el tiempo ahorrado permite una reflexión más profunda, una lectura cuidadosa, la tutoría, una mejor preparación docente, la recuperación o una escritura de mayor calidad con menos ciclos apresurados. Por el contrario, la IA generativa puede ser perjudicial cuando el tiempo ahorrado conlleva una reasignación automática de tareas, lo que se traduce en un mayor número de entregables, plazos más cortos y, por defecto, tiempos de respuesta más rápidos.
Si el ámbito académico asume que cualquier mejora en la eficiencia beneficia a la institución en lugar del investigador individual, la IA generativa inevitablemente aumentará la presión, independientemente de lo avanzadas que sean las herramientas. Por eso, la pregunta: “¿Quién es el dueño del tiempo ahorrado?” no es solo retórica, sino también un problema institucional.
Lo que está surgiendo no es simplemente un cambio tecnológico, sino una sutil reconfiguración de la economía política del trabajo académico, en la que las ganancias de eficiencia corren el riesgo de ser absorbidas institucionalmente en lugar de experimentarse individualmente.
Por lo tanto, antes de automatizar cualquier tarea, automatiza primero los límites. Hazte la pregunta en voz alta: “¿Quién es el dueño del tiempo ahorrado?” Si no puedes dar una respuesta, la respuesta por defecto será “no tú”. En ese caso, la IA generativa no reducirá tu carga de trabajo; simplemente acelerará un sistema ya abrumador, haciéndolo funcionar más rápido y con oraciones más fluidas.
El verdadero riesgo no es que la IA nos quite tiempo, sino que la academia aprenda a aprovechar cada minuto que libera.
Natalia Tsybuliak es profesora asociada en la Universidad Pedagógica Estatal de Berdyansk (reubicada temporalmente en Zaporizhia, Ucrania) y directora del Centro de Excelencia Docente “ArsDocendi”. Su trabajo se centra en la salud mental y el bienestar académico, así como en el uso ético y responsable de la IA en la educación superior y en la investigación. ORCID: 0000-0003-2474-8614.
Yana Suchikova es vicerrectora de investigación de la Universidad Pedagógica Estatal de Berdyansk, Zaporizhia, Ucrania. Su trabajo se centra en el uso ético y responsable de la IA en la investigación, la gobernanza de la investigación, el desarrollo institucional y el fortalecimiento de la capacidad universitaria en situaciones de crisis, incluyendo el aseguramiento de la calidad, la ética de la investigación y las prácticas académicas sostenibles. Apoya iniciativas para mejorar la resiliencia de la educación superior y las respuestas políticas ante los desafíos de las crisis. ORCID: 0000-0003-4537-966X.
Este artículo es un comentario. Los artículos de comentario son la opinión de sus autores y no reflejan necesariamente las de University World News.
0 Comments