La fiebre de los rankings de universidades
Noviembre 15, 2010

marmolejo.jpg En un posting del blog de Francisco Marmolejo, de la Universidad de Arizona, publicado por The Chronicle of Higher Education se analizan los recientes rankings mundiales de universidades (2010), artículo que conviene leer.
La fiebre de los rankings
The Chronicle of Higher Education, September 22, 2010, 10:00 am
By Francisco Marmolejo
Por fin ha llegado el ritual anual del anuncio de los rankings mundiales de instituciones de educación superior. Es la temporada de festejos para algunos, indiferencia para unos cuantos y, por supuesto, enojo y crítica para muchos cuyas instituciones no estuvieron incluidas en las famosas listas de notables y venerables elegidos. Las reacciones respecto al ranking suelen depender de cuál es el lado de la mesa en que se encuentra una institución al estar o no incluida en esa famosa lista definida por los tiranos de los rankings.
En caso de que no haya resultado aún obvio, vale la pena aclarar que yo me encuentro entre aquellos que suelen ver los rankings con cierto grado de cinismo, sobre todo debido a los excesos en su utilización que he podido observar en el transcurso del tiempo. Al mismo tiempo debo reconocer que los rankings pueden ser una herramienta útil para el mejoramiento institucional.
La semana pasada estuve en Bogotá participando como conferencista en un encuentro organizado por la Red Colombiana para la Internacionalización (RCI) y visitando universidades miembros de CONAHEC en aquel país. Dado que mi visita coincidió con el lanzamiento del QS World University Rankings, el tema fue motivo de menciones constantes por los colegas colombianos especialmente considerando que, con excepción de la Universidad Nacional Autónoma de México (UNAM) – ubicada en el lugar 222 – y la Universidad de Sao Paulo (USP) – ubicada en el lugar 253 -, las universidades de América Latina estuvieron prácticamente ausentes en la lista de las 300 más importantes en el mundo. Ya anticipaba yo que América Latina sería literalmente borrada de la faz de la tierra en el subsecuente anuncio de los rankings de la revista Times Higher Education, y casi atiné: la única sobreviviente fue de nuevo la UNAM al habérsele ubicado en el lugar 150. Cuando menos la UNAM salvó la honra regional. Nuestras instituciones en América Latina no han muerto … cuando menos por un año más.
No cabe duda que los rankings son un elemento inherente a la educación. Nos guste o no, las comparaciones son inevitables. Inclusive recuerdo que en mi pueblo, Ojuelos de Jalisco, México, cuando era un niño se daban las odiosas comparaciones entre los estudiantes del Colegio “Miguel Hidalgo” (la escuela primaria privada en la que tenía el privilegio de estar inscrito) y la llamada “Escuela del Gobierno” (la escuela pública a la que se consideraba como de menor calidad). Si esto pasaba en Ojuelos, ¿por qué no esperar que algo similar suceda con un poco de mayor sofisticación en el mundo de la educación superior?.
Pero aun cuando sabemos que los rankings han llegado para quedarse, al mismo tiempo debemos estar conscientes de sus múltiples limitaciones, sus visiones parciales – sean intencionales o no – de una realidad que es compleja, así como el uso a conveniencia que tanto instituciones como gobiernos suelen hacer de los mismos.
Una de las limitaciones tiene que ver con los juicios subjetivos que, a través de los rankings, suelen hacerse sobre la calidad de la educación superior. El factor “prestigio” continúa siendo un elemento central tanto en el ranking de QS como en el de Times Higher Education. Sin embargo, el grupo al que se considera digno de opinar sobre el prestigio de las instituciones tiene una perspectiva en cierto sentido parcial y no suele considerar cierto tipo de instituciones y regiones del mundo por obvias razones de limitado conocimiento sobre las mismas.
Por ejemplo, en su más reciente edición el ranking de The Times le dio un peso del 34.5 por ciento al factor “prestigio”, medido en las 13,388 respuestas recibidas de parte de académicos en una encuesta “mundial” sobre reputación académica que aparentemente fue representativa de todas las regiones del mundo y de todas las áreas del conocimiento. Sin embargo, el diseño de la encuesta solo incluyó un 3.6 por ciento de participantes de América Latina y un 2.3 por ciento de Africa. Habría que indagar cuantos finalmente contestaron la encuesta pero seguramente el porcentaje global de participación de América Latina es aún más bajo. Vale la pena reconocer que The Times ha hecho esfuerzos para reducir la parcialización de respuestas al desarrollar la encuesta en varios idiomas, pero aún hace falta hacer más esfuerzos para asegurarse que la muestra realmente sea representativa de la diversidad mundial de la educación superior.
Para complicar aún más el asunto, tal parece que la decisión sobre el prestigio académico de las instituciones descansa solamente en los propios académicos. Se pudiera argumentar que son ellos los que mejor saben sobre sus pares, pero también debemos aceptar que hay otras voces que debieran tomarse en consideración. Por ejemplo, debo suponer que los egresados de las universidades también pueden aportar una perspectiva valiosa (al final de cuentas debemos suponer que aprendieron algo en su estancia en las aulas universitarias). Supongo además que los empleadores también podrían aportar información de utilidad (al final de cuentas son quienes “sufren” a los egresados universitarios que emplean). Inclusive los padres de familia (que son quienes pagan las colegiaturas o aranceles) seguramente tendrán algo que decir respecto al prestigio de las instituciones. Y, ¿qué pasa con las opiniones de los estudiantes?. ¡Oh, claro!. Olvidé decir que tal parece que los estudiantes no pueden opinar sobre sus instituciones. Pero, ¿es que acaso los estudiantes saben algo sobre sus universidades?. Pues tal parece que no, dado que sus puntos de vista son simple y sencillamente ignorados en los rankings. Con ello el estudiante parece convertirse en una especie de “mal necesario” de las universidades, lo cual me recuerda la expresión que escuché hace tiempo de un investigador que ironizaba diciendo que la universidad ideal es aquella que tiene todo lo que un investigador requiere, con excepción de estudiantes (a menos que le sirvan como “esclavos” de la pomposamente llamda “sociedad del conocimiento”).Tal vez todo esto explica por qué los rankings no se encuentran dentro de los factores más importantes que uno de mis hijos está tomando en consideración como parte del proceso para decidir en qué universidad solicitar su admisión.
Otro componente importante de los rankings se relaciona con el impacto de la investigación. Por ejemplo, Times Higher Education valora este aspecto mediante la medición del volumen de producción científica y del ingreso generado por la misma, así como, nuevamente, el prestigio (30 por ciento), influencia de la investigación en términos del número de veces que es citada por otros investigadores (32.5 por ciento) e inclusive una variable conocida como “ingreso industrial” (2.5 por ciento). Por supuesto que puede argumentarse con relativa facilidad, especialmente por quienes no trabajan en el ámbito académico, que la relevancia de la investigación no puede correlacionarse solamente con el volumen. Cantidad no es necesariamente calidad, o como dicen en el pueblo: “No todo lo que brilla es oro”. Asimismo, fórmulas como la utilizada por Times Higher Education tienden a perpetuar el cuestionable principio de “publicar o morir” tan sagrado e intocable en el mundo de la educación superior. Por cierto, a propósito de los temas de investigación en el ranking, es interesante observar que la Universidad de Alejandría, en Egipto, por primera vez entró a la lista de The Times, quedando ubicada en el número 146. Este inesperado brinco se debió principalmente al peso que la universidad tuvo en el índice de trabajos de investigación citados el cual, de acuerdo con el reporte de Times Higher Education, fue inclusive mejor que el de la Universidad de Harvard.
Un caso interesante en la fiebre de los rankings es la que ha introducido el cada vez más famoso Academic Ranking of World Universities (ARWO), conocido popularmente como el “ranking de Shanghai”, el cual fue elaborado originalmente por el Centro de Universidades de Clase Mundial de la Universidad Jiao Tong en China. Gracias a este ranking, las personas que se han hecho acreedoras al Premio Nobel han adquirido una relevancia adicional, especialmente en instituciones de educación superior. Lo que sucede es que ARWO utiliza como proxy para medir parcialmente la calidad de la enseñanza de una institución en función del número de exalumnos de la misma que hayan obtenido el Premio Nobel o algún premio de primera relevancia en su campo de conocimiento. De hecho, el 10 por ciento del total del ranking de Shanghai se atribuye a este factor. En este mismo sentido, un 20 por ciento la calidad del profesorado también se mide en términos del número de profesores que tengan un Premio Nobel o su equivalente. Gracias a ambos indicadores, los 829 ilustres que han recibido el Premio Nobel desde su creación, tienen ahora un valor adicional, inclusive los 515 que ya han fallecido. ARWO incluye toda una fórmula sofisticada para contarlos y darles peso en función de donde estudiaron, donde trabajan o trabajaron, si ya fallecieron qué porcentaje considerar en función de la distancia en tiempo, etc.
Finalmente, una variación interesante es la presentada por el ranking conocido como Webometrics, el cual fue creado en 2004 por el Laboratorio Cybermetrics del Consejo para la Investigación Científica de España. Webometrics mide la presencia de una universidad en el WWW como proxy de la calidad de sus académicos y de su actividad investigación.
Desafortunadamente, ningún ranking decente considera aspectos tan relevantes como la inclusión de una persona en la plétora de publicaciones “Quién es Quién en….” de las que solemos recibir tantas invitaciones por correo electrónico. Tal vez algún día un nuevo ranking podría incluir este riguroso e importante indicador de éxito.
En resumen, el juego de los rankings es complejo e intrigante. ¿Alguno de ellos es digno de considerarse?, ¿o ninguno?. Obviamente, todo depende del por qué, cómo y para qué utilizarlos. La pregunta central que todos los rankings pretender responder es la de cuál institución es mejor. El problema está en definir qué se entiende por calidad y, aún más importante, cómo se mide ésta. Consideremos, por ejemplo, el caso de mi propia institución, la Universidad de Arizona. A nivel mundial, la revista The Times la ubica en el número 95, el ranking QS la posiciona en el 160, el ranking de Shanghai en el número 45 y Webometrics en el número 30. Esta amplia variación ilustra lo importante que resulta examinar la metodología bajo la que se elaboró el ranking para, con base en ello, hacer un uso adecuado de esta información.
Mi sugerencia es tomar en consideración algunas de las siguientes recomendaciones que Jamil Salmi y Alenoush Saroyan hicieran en un interesante artículo publicado por el Programa de Administración de la Educación Superior (IMHE) de la OCDE intitulado “League Tables as Policy Instruments: Uses and Misuses”:
+ Tener claridad respecto a lo que en realidad está siendo medido por el ranking
+ Utilizar un rango de indicadores y multiples mediciones, en lugar de solamente un ranking en lo individual.
+ Comparar programas o instituciones que sean similares.
+ A nivel institucional, utilizar los rankings como insumo para la planeación estratégica y para fines de mejoramiento de la calidad.
+ A nivel gubernamental, utilizar los rankings para estimular una cultura de la calidad.
+ Utilizar los rankings como uno de los instrumentos disponibles para informar a los estudiantes, familias y empleadores, así como para estimular el debate público.
Y finalmente para no dejar, yo quisiera agregar una recomendación de mi propia cosecha: ¡A divertirse con los rankings!
Mientras tanto, yo continuaré disfrutando las reacciones que los rankings suelen provocar. Para citar un caso, el año pasado me fascinaron las declaraciones que hiciera un legislador mexicano al que los reporteros le preguntaban su opinión en torno al hecho de que la UNAM había sido excluida de la lista de las 100 mejores instituciones a nivel mundial de acuerdo con el ranking de la revista Times Higher Education. Con toda seriedad el ilustre diputado respondió que esto se debía a una “embestida” de los grupos de poder en contra de la UNAM como vía para reducirle su presupuesto. Ya me imagino a los representantes de esas fuerzas oscuras negociando en Londres con el staff que hace el ranking para sacar a la UNAM de la lista. No me queda mas que parafrasear a la también ilustre Mafalda: “¡Acabáramos!”

0 Comments

Submit a Comment

Tu dirección de correo electrónico no será publicada. Los campos requeridos están marcados *

PUBLICACIONES

Libros

Capítulos de libros

Artículos académicos

Columnas de opinión

Comentarios críticos

Entrevistas

Presentaciones y cursos

Actividades

Documentos de interés

Google académico

DESTACADOS DE PORTADA

Artículos relacionados

Share This