“Una falacia es un argumento que parece válido, pero no lo es.”
Hamblin (1970) y Groarke (2013)
Todo el mundo se ha precipitado a considerar como un éxito los resultados de la universidad española
en el ranking QS por facultades (es decir por estudios o disciplinas). Lo ha hecho la
prensa (El País, La vanguardia,…) y las universidades. Lo hacen porque en el ranking por facultades de QS (QS World University Rankings byFaculty) hay veintiuna incidencias de facultades españolas entre las cincuenta primeras. Hay que precisar y contextualizar bastante este dato, dicho así no es fiel a la realidad. Lo intentamos iluminar un poco con los
siguientes hechos:
a) El ranking se compone de agrupamientos de estudios. Así hay uno de Ingeniería y tecnología, otro de Ciencias Sociales, etc. Hay del orden de 12 estudios o facultades (disciplinas) en cada uno de los cinco
apartados de que se compone el ranking. De esta forma, en realidad son unos SESENTA RANKINGS,
de los cuales tenemos presencia entre los cincuenta primeros puestos en VEINTIÚN casos. No se dice nada de los treinta y tantos restantes, ni de la distribución en los estudios donde hemos quedado supuestamente bien.
b) El ranking QS de universidades, el global, supone para cada universidad un promedio de los resultados de suss facultades, o
dicho de otra forma: Para cada universidad su posición es una media, ponderada con su metodología, de las posiciones de todas sus facultades.
c) Si vamos al ranking general de
universidades, España sólo tiene tres universidades entre las doscientas
primeras, y ninguna antes de la número 150. Exactamente la Universidad de Barcelona, que está
en el puesto 156, la Universidad Autónoma de Madrid en el 187 y la Universidad Autónoma
de Barcelona en el 195. Pero hay otras como la de Murcia que está en la
posición 801, y algunas que están más abajo o que no aparecen. Estas informaciones son del último
ranking por universidades, también hecho
público en 2018, hace unos días, y que se elabora con los datos de los últimos
cinco años.
d) Eso quiere decir que, sin variar la posición global de las universidades,
si suben algunas facultades otras bajan en la misma medida. Este hecho se
reproduce también en relación con los países y el ranking por facultades: Si en
21 facultades hemos subido, sin variar la posición global del país, quiere
decir que en los restantes hemos bajado en igual medida. Eso la prensa no lo
dice. Y decir que ha subido la posición de la universidad española basándose
sólo en los datos mejores del ranking de facultades es una falacia.
e) Conviene tener en cuenta la
metodología, los detalles de cómo se hace el ranking, y que QS es un producto
de Elsevier (muchas
universidades de prestigio e incluso federaciones de universidades han decidido
que sus investigadores no publiquen en Elsevier), en particular las
citaciones (20% en la ponderación de la valoración que se hace de Universidades
y facultades) las toma de Scopus.
f) El ranking se hace merced a cuatro conceptos. El primero es el de
reputación académica, se hace en base a la opinión de expertos a través de
cuestionarios. Supone el 40% de la valoración. Los expertos son seleccionados
por la organización con criterios no transparentes. El segundo es más objetivo
, es sobre la reputación que tienen las
universidades como empleadores, qué índice de alumnos se emplean y con qué
calidad sobre el total de egresados. Se hace mediante encuestas a empleadores,
tampoco el criterio es transparente. Supone el 10%
g) También está la proporción de alumnos por profesor. Implica el 20%. Pero
lo realmente importante es la CITACIÓN. Supone el 20% de los puntos que obtiene
facultades y universidades. Aquí entramos en el meollo de la cuestión. Las
citaciones provienen exclusivamente de Scopus, la base de datos de Elsevier.
Quienes no están ahí no existen. Las citas que se computan para hallar el índice
de citación de un artículo son exclusivamente las que provienen de revistas
indexada en Scopus. Pero fuera hay muchas, y con índices transparentes, como es
el caso del índice H y el H5 de las
Google Scholar Metrics (GSM), o incluso las de la Web of Science (WoS), que sin
ser tampoco transparentes no son tenidas en cuenta.
h) En el caso de España ese apartado de la metodología no es homogéneo con
el de otros países, excepto en el caso de Ciencias de la Salud, como
hemos puesto de relieve en otros sitios. Somos
peormente considerados por culpa nuestra, bueno en realidad de los que
tienen que tomar la decisión de que en Scielo-España solo se incluyan las
revistas de Ciencias de la salud en su base de datos. Revistas que automáticamente
serían indexadas en Scopus y sus citas se computarían en este ranking. Sin
embargo en Latinoamérica es muy fácil para una revista de Ciencias Sociales entrar
en Scopus a través de Scielo (las hay con mucho menos índice H que RED, por
ejemplo, y con menos citación, que están en este repositorio) y como
consecuencia ser incluida en Scopus. Eso se podría resolver simplemente
haciendo que la agencia Scielo en España, que actualmente es el Instituto
Carlos III, aceptase las revistas de FECYT, que han sido seleccionadas con unos
criterios de edición científica mucho más rigurosos que los de Scielo. O bien
aplique su procedimiento propio a otras revistas científicas y no solo a las de
Ciencias de la salud. Ignoramos porqué algo
tan fácil, que sólo depende una decisión, que no cuesta dinero o cuesta muy
poco en comparación con lo que se obtiene, no se hace. Esto supone despreciar
hasta un 20% de la valoración de las universidades españolas que están en este
ranking. Un auténtico despropósito.
i) De esta forma otros índices más rigurosos, que sí utilizan GSM para
determinar el impacto y la posición de las universidades (métricas de citación
en la web), como es el Ranking
Web of Universities (RWU) del CSIC, dan por ejemplo a la Universida de
Murcia la posición 508 en el ranking
general en contraste con la posición
801 que le da el QS. Evidentemente ambos rankings miden cosas diferentes, pero
ambos son coincidentes en un tema de análisis y de valoración, que es la
citación, y que pesa el 20% del QS.
j) Otro factor que debiera haber cambiado en la percepción de la edición
científica por las universidades, como negocio por parte de las editoriales y
en particular de Elsevier-Scopus es el Open Access, sobre todo en su impacto
económico y en su relación con la asfixia
que sufren las universidades , especialmente por parte de esta editorial.
El Acceso Abierto, que por sí mismo era un fenómeno de progreso en la
publicación científica, ha cambiado. Por sí mismo no garantiza nada. También Elsevier hace negocio ahora con él. Mediante
la article processing charge (APC)
Teóricamente la APC compensa a las editoriales por la supuesta disminución de
ingresos que supone el Open Access: no cobrar a los lectores. Sin embargo
veamos que esto se ha convertido en otra forma de detraer fondos de la
investigación a los investigadores y a las instituciones investigadoras, y a
los fondos públicos:
La publicación de la Universidad de
Cambridge Scholarly
Communication (Comunicación Académica) en un especial dedicado al aumento
del APC que
han establecido las editoriales atribuido a open acces da los siguientes datos:
Publishers' Open
Access article processing charges
Publisher
|
APC from
|
APC to
|
Fully OA or Hybrid?
|
$5000*
|
$5000
|
Hybrid
|
|
$705
|
$2770
|
Open Access
|
|
$600
|
$2700
|
Hybrid
|
|
$100
|
$5000
|
Hybrid
|
|
$400
|
$2250
|
Open Access
|
|
CHF 150
|
CHF 1800
|
Open Access
|
|
£890
|
£3,150
|
Hybrid
|
|
$1495
|
$2900
|
Open Access
|
|
$750
|
$3000
|
Hybrid
|
|
$3000
|
$3000
|
Hybrid
|
|
$500
|
$2950
|
Open Access
|
|
$800
|
$5200
|
Hybrid
|
Todos suben, pero Elsevier pasa de $100 a
$5000.
Para este fenómeno la
UE, y
algunos nos hacemos eco (no
así el gobierno español ni las universidades), establece el
estándar de colores para la edición científica basada en el autoarchivo,
con la opción de colores de Sherpa-Remeo
(Dulcinea en España). En particular PRECONIZAMOS LA OPCIÓN ORO Y LA VERDE: Que
los autores e instituciones practiquen el autoarchivo antes y después de la publicación
por editoriales.
k) En este contexto, la aparición de estos resultados, no todo es negativo.
El ranking QS es consistente con otros en un fenómeno que venimos señalando en
otros lugares: el ascenso imparable de las universidades de Extremo Oriente, en
particular las dos Singapur, las dos, que aquí también escalan posiciones, como
en el ranking de Shangai, en el del THE y en otros.
Singapur tiene sus dos universidades colocadas en
las posiciones 11 y 15 del ranking
general de universidades de QS. Si buscamos en todas las especialidades de Ingeniería y tecnología,
aparecen las dos en los puestos 5 y 7. En Ciencias
Naturales y Matemáticas, en el 12 y 19. En Ciencias Sociales y Gestión
(incluyendo Educación), entre las diez primeras sólo aparecen rompiendo el casi
monopolio anglosajón, una de las dos universidades de Singapur, la otra aparece
en el puesto 23, y la de Hong Kong, que también utiliza una variante docente
parecida.
Esta consistencia de datos ratifica el fenómeno
que ya hemos analizado puede deberse a resultados de las metodologías docentes utilizadas, como lo
son variantes de formas de organizar la enseñanza y la evaluación teniendo como
criterio el dominio
del aprendizaje (Mastery
learning). Esta práctica arranca además desde las primeras etapas
educativas.
Referencias
Hamblin, C.L. (1970). Fallacies.
Methuen.
Groarke, L. .(2013) «Informal
Logic». En Edward N. Zalta. Stanford
Encyclopedia of Philosophy.
La viñeta está obtenida de Foto flickr compartida por Ape Lad bajo una licencia de Creative Commons (BY-NC-ND)