viernes, 2 de marzo de 2018

El ranking QS por facultades universitarias. Lo que interesa a Elsevier y lo que los periódicos y los rectores (o aspirantes) no dicen.




“Una falacia  es un argumento que parece válido, pero no lo es.
Hamblin (1970) y Groarke (2013)


Todo el mundo se ha precipitado a considerar como un éxito los resultados de la universidad  española en el ranking QS por facultades (es decir por estudios o disciplinas). Lo ha hecho la prensa (El País, La vanguardia,…) y las universidades. Lo hacen porque en el ranking por facultades de QS (QS World University Rankings byFaculty) hay veintiuna incidencias de facultades españolas entre las cincuenta primeras. Hay que precisar y contextualizar bastante este dato, dicho así no es fiel a la realidad. Lo intentamos iluminar un poco con los siguientes hechos:

a) El ranking se compone de agrupamientos de estudios. Así hay uno de Ingeniería y tecnología, otro de Ciencias Sociales, etc. Hay del orden de 12 estudios o facultades (disciplinas) en cada uno de los cinco apartados de que se compone el ranking. De esta forma, en realidad son unos SESENTA RANKINGS, de los cuales tenemos presencia entre los cincuenta primeros puestos  en VEINTIÚN casos. No se dice nada de los treinta y tantos restantes, ni de la distribución en los estudios donde hemos quedado supuestamente bien.

b) El ranking QS de universidades, el global, supone para cada universidad un promedio de los resultados de suss facultades, o dicho de otra forma: Para cada universidad su posición es una media, ponderada con su metodología, de las posiciones de todas sus facultades.

c) Si vamos al ranking general de universidades, España sólo tiene tres universidades entre las doscientas primeras, y ninguna antes de la número 150. Exactamente la Universidad de Barcelona, que está en el puesto 156, la Universidad Autónoma de Madrid en el 187 y la Universidad Autónoma de Barcelona en el 195. Pero hay otras como la de Murcia que está en la posición 801, y algunas que están más abajo o que no aparecen. Estas informaciones son del último ranking por universidades, también hecho público en 2018, hace unos días, y que se elabora con los datos de los últimos cinco años.

d) Eso quiere decir que, sin variar la posición global de las universidades, si suben algunas facultades otras bajan en la misma medida. Este hecho se reproduce también en relación con los países y el ranking por facultades: Si en 21 facultades hemos subido, sin variar la posición global del país, quiere decir que en los restantes hemos bajado en igual medida. Eso la prensa no lo dice. Y decir que ha subido la posición de la universidad española basándose sólo en los datos mejores del ranking de facultades es una falacia.

f) El ranking se hace merced a cuatro conceptos. El primero es el de reputación académica, se hace en base a la opinión de expertos a través de cuestionarios. Supone el 40% de la valoración. Los expertos son seleccionados por la organización con criterios no transparentes. El segundo es más objetivo ,  es sobre la reputación que tienen las universidades como empleadores, qué índice de alumnos se emplean y con qué calidad sobre el total de egresados. Se hace mediante encuestas a empleadores, tampoco el criterio es transparente. Supone el 10%

g) También está la proporción de alumnos por profesor. Implica el 20%. Pero lo realmente importante es la CITACIÓN. Supone el 20% de los puntos que obtiene facultades y universidades. Aquí entramos en el meollo de la cuestión. Las citaciones provienen exclusivamente de Scopus, la base de datos de Elsevier. Quienes no están ahí no existen. Las citas que se computan para hallar el índice de citación de un artículo son exclusivamente las que provienen de revistas indexada en Scopus. Pero fuera hay muchas, y con índices transparentes, como es el  caso del índice H y el H5 de las Google Scholar Metrics (GSM), o incluso las de la Web of Science (WoS), que sin ser tampoco transparentes no son tenidas en cuenta.

h) En el caso de España ese apartado de la metodología no es homogéneo con el de otros países, excepto en el caso de Ciencias de la Salud, como hemos puesto de relieve en otros sitios. Somos peormente considerados por culpa nuestra, bueno en realidad de los que tienen que tomar la decisión de que en Scielo-España solo se incluyan las revistas de Ciencias de la salud en su base de datos. Revistas que automáticamente serían indexadas en Scopus y sus citas se computarían en este ranking. Sin embargo en Latinoamérica es muy fácil para una revista de Ciencias Sociales entrar en Scopus a través de Scielo (las hay con mucho menos índice H que RED, por ejemplo, y con menos citación, que están en este repositorio) y como consecuencia ser incluida en Scopus. Eso se podría resolver simplemente haciendo que la agencia Scielo en España, que actualmente es el Instituto Carlos III, aceptase las revistas de FECYT, que han sido seleccionadas con unos criterios de edición científica mucho más rigurosos que los de Scielo. O bien aplique su procedimiento propio a otras revistas científicas y no solo a las de Ciencias de la salud.  Ignoramos porqué algo tan fácil, que sólo depende una decisión, que no cuesta dinero o cuesta muy poco en comparación con lo que se obtiene, no se hace. Esto supone despreciar hasta un 20% de la valoración de las universidades españolas que están en este ranking. Un auténtico despropósito.

i) De esta forma otros índices más rigurosos, que sí utilizan GSM para determinar el impacto y la posición de las universidades (métricas de citación en la web), como es el Ranking Web of Universities (RWU) del CSIC, dan por ejemplo a la Universida de Murcia la posición 508  en el ranking general  en contraste con la posición 801 que le da el QS. Evidentemente ambos rankings miden cosas diferentes, pero ambos son coincidentes en un tema de análisis y de valoración, que es la citación, y que pesa el 20% del QS.

j) Otro factor que debiera haber cambiado en la percepción de la edición científica por las universidades, como negocio por parte de las editoriales y en particular de Elsevier-Scopus es el Open Access, sobre todo en su impacto económico y en su relación con la asfixia que sufren las universidades , especialmente por parte de esta editorial. El Acceso Abierto, que por sí mismo era un fenómeno de progreso en la publicación científica, ha cambiado. Por sí mismo no garantiza nada.  También Elsevier hace negocio ahora con él. Mediante la  article processing charge (APC)

Teóricamente la APC compensa a las editoriales por la supuesta disminución de ingresos que supone el Open Access: no cobrar a los lectores. Sin embargo veamos que esto se ha convertido en otra forma de detraer fondos de la investigación a los investigadores y a las instituciones investigadoras, y a los fondos públicos:

La publicación de la Universidad de Cambridge Scholarly Communication (Comunicación Académica)  en un especial dedicado al aumento del APC que han establecido las editoriales atribuido a open acces da los siguientes datos:


Publishers' Open Access article processing charges


Publisher
APC from
APC to
Fully OA or Hybrid?
$5000*
$5000
Hybrid
$705
$2770
Open Access
$600
$2700
Hybrid
$100
$5000
Hybrid
$400
$2250
Open Access
CHF 150
CHF 1800
Open Access
£890
£3,150
Hybrid
$1495
$2900
Open Access
$750
$3000
Hybrid
$3000
$3000
Hybrid
$500
$2950
Open Access
$800
$5200
Hybrid

Todos suben, pero Elsevier pasa de $100 a $5000.

Para este fenómeno la UE, y algunos nos hacemos eco (no así el gobierno español ni las universidades), establece el estándar de colores para la edición científica basada en el autoarchivo, con la opción de colores de Sherpa-Remeo (Dulcinea en España). En particular PRECONIZAMOS LA OPCIÓN ORO Y LA VERDE: Que los autores e instituciones practiquen el autoarchivo antes y después de la publicación por editoriales.

k) En este contexto, la aparición de estos resultados, no todo es negativo. El ranking QS es consistente con otros en un fenómeno que venimos señalando en otros lugares: el ascenso imparable de las universidades de Extremo Oriente, en particular las dos Singapur, las dos, que aquí también escalan posiciones, como en el ranking de Shangai, en el del THE y en otros.
Singapur tiene sus dos universidades colocadas en  las posiciones 11 y 15 del ranking general de universidades de QS. Si buscamos en todas las especialidades de Ingeniería y tecnología, aparecen las dos en los puestos 5 y 7. En Ciencias Naturales y Matemáticas, en el 12 y 19. En Ciencias Sociales y Gestión (incluyendo Educación), entre las diez primeras sólo aparecen rompiendo el casi monopolio anglosajón, una de las dos universidades de Singapur, la otra aparece en el puesto 23, y la de Hong Kong, que también utiliza una variante docente parecida.

Esta consistencia de datos ratifica el fenómeno que ya hemos analizado puede deberse a resultados de las metodologías docentes utilizadas, como lo son variantes de formas de organizar la enseñanza y la evaluación teniendo como criterio el dominio del aprendizaje (Mastery learning). Esta práctica arranca además desde las primeras etapas educativas.

Referencias
Hamblin, C.L. (1970). Fallacies. Methuen.
Groarke, L. .(2013)  «Informal Logic». En Edward N. Zalta. Stanford Encyclopedia of Philosophy.

La viñeta está obtenida de Foto flickr compartida por Ape Lad bajo una licencia de Creative Commons (BY-NC-ND)


La América Hispana un páramo de la edición científica no sólo en Educación y en Computación (y II)

En el   post anterior  se analizaban los dos rankings de SCImago-JCR,   sobre la base de datos de Scopus:  el  de paises por su producción c...