Editoriales académicas: un pelotazo de décadas que amenaza la credibilidad de la ciencia

El 28 y 29 de noviembre tuvieron lugar las V Jornadas de Bibliotecas y Archivos del CSIC. En esta ocasión el tema era la Ciencia Abierta (Open Science), el conjunto de iniciativas que pretenden garantizar el acceso total y libre de la sociedad al avance de los conocimientos científicos y técnicos, no solo de manera pasiva pero también de manera activa, contribuyendo al desarrollo de los proyectos de investigación. Es muy de agradecer que el personal de biblioteca esté tan pendiente a los últimos movimientos de la ciencia en este sentido porque su contribución es fundamental para que el personal científico pueda desarrollar su trabajo. Pero más aún, si cabe, es de agradecer que se cuente con la opinión de los investigadores en este tipo de eventos.

El foco del segundo día de estas Jornadas se concentró en el componente más conocido de la Ciencia Abierta: el acceso abierto a los resultados publicados y a los repositorios de los datos que las alimentan (Open Access). Es acerca de este último asunto sobre el que queremos hacer una reflexión puesto que es el sistema que actualmente se está imponiendo y, aunque pueda parecer lo contrario, no todo el mundo lo considera adecuado para el avance de la ciencia. En particular, porque forma parte y, de hecho, apuntala un sistema de publicaciones que se sustenta sobre un gran negocio de legitimidad y utilidad social dudosa. Nos explicamos.

Mientras hacíamos experimentos…

Durante décadas, los científicos hemos vivido en un mundo particular, bastante alejados de la sociedad. Algunos dirían que en una torre de marfil. Mientras hacíamos ciencia por el afán de conocimiento y por revelar los misterios del mundo que nos rodea, nuestro sistema económico capitalista evolucionaba a su vez e incorporaba en su seno la producción científica como una actividad mercantil más. 

Tenemos que tener en cuenta que la transferencia de los descubrimientos científicos a la sociedad es una parte indispensable del proceso científico. De poco sirve hacer avances si estos no son conocidos por la sociedad o no puede favorecerse de ellos. Algunos afirman que el proceso de la ciencia no termina hasta que el descubrimiento ha llegado a la sociedad. En ese sentido, las publicaciones científicas constituyen el fruto de nuestro trabajo y la forma mediante la que lo hemos acercado a otros investigadores (lo cual es parte del método científico) y a los ciudadanos.

El sistema de publicaciones científicas ha incorporado los resultados de nuestro trabajo como productos y los ha mercantilizado. Con el tiempo, el sistema se ha ido engrasando, y ha llegado a convertirnos en engranajes de la maquinaria de un negocio con los márgenes de beneficios más altos. Una maquinaria en la que nos vemos encerrados y de la que no podemos salir. Algo así, como Chaplin en Tiempos Modernos. La ciencia se ha industrializado y tiene que vender productos. Nuestros productos son las publicaciones.

¿Cómo hemos llegado hasta ahí? 

En 1946, al término de la II Guerra Mundial, el soldado eslovaco Ján Ludvik Hoch, de 23 años, tenía un sencillo sueño: quería ser millonario. A Hoch lo conocemos como Robert Maxwell, el nombre que adoptó para convertirse en magnate de la prensa en inglés (fue dueño del News of The World y el Daily Mirror entre otros). Pero pocos conocen el papel que tuvo en el desarrollo del negocio de las publicaciones académica.

Tras la II Gran Guerra, la ciencia disfrutó de una época de esplendor en Europa y Estados Unidos. Maxwell había establecido su propio negocio ayudando a Springer a enviar artículos científicos a Gran Bretaña, que eran publicados por Butterworth (editorial que hoy forma parte del grupo multinacional Elsevier). Butterworth contrató al joven Maxwell en un momento clave, en que la ciencia estaba a punto de entrar en un período de crecimiento sin precedentes. Con el tiempo y mucho trabajo, Maxwell hizo una pequeña fortuna con la que compró las acciones de Butterworth y, junto con Paul Rosbaud, otro soldado de la II Guerra Mundial, nombró a la nueva empresa Pergamon Press. Él y Rosbaud decidieron cambiar el modelo de negocio de Pergamon. Dado el crecimiento que la actividad científica estaba experimentando, sobre todo en Reino Unido, el número de nuevos estudios necesitados de publicación no dejaba de crecer. La velocidad con la que se sucedían los avances desaconsejaba la elaboración de detalladas memorias de investigación como se hacía en siglos anteriores, con menos competencia (Darwin trabajó con discreción sobre su teoría de la selección natural durante décadas, y cuando lo publicó On the Origin of Species era todo un tomo de cientos de páginas). Desde el punto de vista empresarial, había un nicho importante de negocio en la creación de nuevas revistas científicas. Y, para reducir gastos, convencieron a los científicos de que se pusieran al frente de ellas. Esto suponía un giro importante frente a las revistas existentes hasta el momento, en su mayoría muy ligadas a sociedades científicas y academias oficiales. Reclutaban a los investigadores en conferencias y les organizaban fiestas y los invitaban a viajes. Pergamon Press luego vendía suscripciones de esas revistas a las bibliotecas universitarias. Así comenzó el negocio. Para 1959, Pergamon publicaba 40 revistas; seis años después publicaba 150. Esto colocó a Maxwell muy por delante de la competencia. En 1960, el eslovaco había materializado su sueño: compró su primer Rolls-Royce con chófer y se mudó a su mansión de Headington Hill en Oxford.

Por supuesto, el resto de editoriales no se quedaron atrás y copiaron el negocio, de tal manera que el número de revistas científicas generadas en los años 60 creció de forma exponencial. Hacer que su trabajo fuera visto en el escenario internacional se estaba convirtiendo en una nueva forma de prestigio para los investigadores. De esa forma, se empezó a valorar la calidad científica de los investigadores sobre la base de las revistas en las que publicaban, incluso por encima de los descubrimientos en sí mismos.

La multitud de revistas creadas empezaron a tener diferente prestigio, así que era necesario poner orden en el sistema. Las bibliotecas académicas, siempre cortas de fondos, necesitaban un sistema que les permitiera seleccionar las suscripciones más adecuadas para contratar. Entonces apareció Eugene Garfield, que creó el Institute for Scientific Information (ISI) fundado en Filadelfia en 1960. Pese a su nombre, el ISI era una empresa privada que ordenó por primera vez las revistas académicas en una base de datos llamada Science Citation Index (1964). En 1975 el ISI creó el Journal of Citation Reports (JCR). Finalmente, Garfield también inventó el factor de impacto (FI). El FI se calcula para cada revista sobre los datos de un periodo de dos años, dividiendo el cálculo del número de veces que los artículos publicados en esta revista han sido citados en ese periodo entre el número de artículos publicados en esta revista en el mismo periodo. Con la creación de estas bases de datos y el FI, se instala entre los investigadores la expresión publish or perish (publica o perece). Es decir, aquel investigador que no publica sus resultados en las revistas indexadas en el JCR, simplemente perece. En 1992, la Thompson Corporation compró el ISI y en 2008 la agencia de medios Reuters compró Thompson. Hoy en día, el ISI forma parte de Clarivate Analytics. El negocio se asienta y expande, siempre controlado por empresas privadas, que obtienen sus ingresos gracias a las suscripciones de las universidades y centros de investigación.

Con la llegada del s. XXI surge internet y Thompson se da cuenta de que es mucho más barato colgar las bases de datos en internet que tener que enviarlas a las universidades y que eso no implica una reducción de los ingresos, más bien al contrario al reducir los costes. Por ese motivo se crea la Web of Science en 2002, que contiene tanto las bases de datos del ISI como el SCI. Pero el negocio en internet es también accesible para la competencia. Así, en 2004 Elsevier publica Scopus, que en principio era una base de datos y un buscador de resúmenes y citas de artículos de revistas científicas, y Google comienza las pruebas de su herramienta Scholar. Por otra parte, en 2005 el argentino nacionalizado estadounidense Jorge E. Hirsch creó el índice h. Este índice permite establecer un ranking de científicos sobre la base de las citas que reciben los artículos de los que son autores. Tanto Scopus como Scholar hacen uso del índice h en sus métricas. Ya podemos saber quién es el mejor científico del mundo, lo que favorece la competencia, aún más allá de la que la disputa por publicar en las mejores revistas. Así pues, la presión por publicar se dispara. Ya no solo hay que publicar en revistas, sino que tienen que ser tener un alto FI para que sean muy citadas y aumentar el índice h.

En todo este crecimiento y explosión empresarial, los científicos tienen el papel de paganos pasivos.  Ellos tienen una idea, plantean una investigación, que financian básicamente organizaciones públicas, la llevan a cabo, obtienen los resultados, establecen conclusiones, escriben el artículo, revisan y corrigen los artículos de otros colegas. Pero son otros los que venden ese producto y reciben el beneficio económico. Muchas personas no lo saben, pero los investigadores, al contrario que otros profesionales creativos (escritores, músicos, pintores…), no obtenemos beneficio económico por la venta de las obras generadas por nuestra actividad creativa, sino que cedemos los derechos a las editoriales que publican nuestros trabajos.

Buscando nuevas soluciones

Así que al final de la primera década empiezan a surgir alternativas. En 2011 surge Altmetrics, que es un índice que tiene en cuenta en la evaluación de los artículos su relevancia social, medida como presencia en bases de datos, visualizaciones del artículo, descargas o menciones en redes sociales y en prensa. Más aún, en 2012 se firma la Declaración de San Francisco (DORA), en la que los científicos, denuncian que el FI no sirve como indicador de calidad y que hay que evaluar a los científicos de otra forma. Y el 2015 se publica el Manifiesto de Leiden, con la intención de dejar de emplear sólo parámetros cuantitativos, y empezar a utilizar otros cualitativos para la evaluación de los científicos.

En este época surgen también las revistas en acceso abierto. La idea surge de la queja de muchos investigadores y de las instituciones financiadoras de la investigación por la imposibilidad de acceder a los resultados científicos que se encuentran detrás de la barrera de la suscripción de las editoriales, sobre todo por parte de los auténticos financiadores de la investigación: los ciudadanos. Porque recordemos que el modelo de las revistas se basa en la cesión de derechos por parte de los autores, el trabajo gratuito de los revisores y por cobrar por el acceso a todo el mundo: los ciudadanos que ya pagaron la realización de la investigación, las instituciones que la hicieron posible y los propios autores originales.

Surgen dos modelos principalmente, el verde (Green OA) y el dorado (Gold OA). En ambos modelos cualquier persona puede descargarse los artículos desde internet de forma gratuita. El modelo verde se basa en establecer un periodo de “embargo” hasta la liberación en abierto de los artículos, mientras que el modelo dorado permite el acceso desde el primer momento pero exige a los autores que “compensen” el lucro cesante a la revista con un sobrecoste: se paga por publicar un trabajo del que cedes los derechos de autor. Las editoriales se apuntaron rápidamente al modelo dorado, manteniendo en el proceso algunas revistas híbridas (suscripción o acceso abierto), mientras que el modelo verde queda restringido principalmente a instituciones públicas sin ánimo de lucro.  

¿Puedo publicar si no tengo dinero?

Evidentemente, muchos investigadores se resisten a pagar por publicar, pero es difícil hacerlo cuando el sistema está apoyado por las instituciones financiadoras públicas. La Unión Europea, por ejemplo, obliga a publicar en el sistema de acceso abierto los resultados de las investigaciones financiadas por ella. Los investigadores, que saben que les van a evaluar en función del FI terminan resignándose y publicando en el sistema dorado, en el que las revistas suelen tener un mayor FI. El modelo es ideal para las editoriales, dada la presión por publicar para los investigadores. Estas empresas defienden que deben ser las instituciones financiadoras y para las que trabajan los científicos, las que se hagan cargo de pagar las tarifas, que por otra parte, crecen descontroladamente. La realidad, es que el dinero al final sale de los proyectos de investigación, sustrayéndolo de los fondos dedicados a la investigación en sí. Pero, ¿qué ocurre cuando los autores se quedan sin financiación? Esto no es extraño en los momentos que vivimos. Algunos investigadores sin proyecto están pagando las publicaciones en acceso abierto de su bolsillo. Hasta 2000€ en un año han llegado a pagar algunos. Estamos en un círculo vicioso: si no publicas no hay proyecto y si no hay proyecto, ¡te lo pagas de tu bolsillo!

En la actualidad está surgiendo un nuevo modelo de acceso abierto, el diamante, que es gratuito para el lector y el autor. ¿En qué se diferencia del verde? En que mantiene una alta calidad de su edición. ¿Cómo se consigue eso si el autor no paga por publicar? Empleando a voluntarios para que hagan el trabajo. Otra forma de trabajar gratis para las editoriales para que sigan haciendo negocio.

Todo este sistema está pervertido. Los investigadores pagan por publicar mientras hacen prácticamente todo el trabajo y otros se benefician de ello. El principal problema es que al utilizar el FI y las citas para evaluar a los científicos, estos se ven compelidos a publicar cada vez más artículos en revistas de alto FI y obtener más citas para incrementar su índice h. En consecuencia, en este momento la competencia y la presión por publicar es tan alta que muchos investigadores no son capaces de sobrevivir a pesar de publicar mucho y de calidad. No consiguen contratos y plazas en la academia y financiación para sus proyectos. Es un problema a nivel global y la principal perjudicada es la propia ciencia.

Y la bola sigue creciendo

Según la base de datos Scimago, el número de artículos crece a razón de casi 3 millones por año, lo que significa un crecimiento de hasta el 6% anual. Recordemos que el crecimiento del PIB mundial suele ser del 2-3% anual. Es tal la cantidad de artículos que se publican que a los investigadores no nos da tiempo a leer ni siquiera los de nuestro campo de actividad. Y menos a citar. Por eso, se estima que en Medicina y Ciencias Naturales entre 10-32% de los artículos nunca han sido citados. En Humanidades la cifra llega al 83% dependiendo el área y la fuente. Y eso sin tener en cuenta las autocitas, es decir, las citas que los autores hacen de sus propios trabajos. Por otra parte, sólo el 20% de los artículos que se citan han sido realmente leídos. Es decir, ni las revistas ni las citas son buenos indicadores de la actividad de los científicos, entre otros muchos motivos porque ¡los artículos no se leen! Pero eso a las editoriales les da lo mismo: son solo un producto mercantil.

Han pasado 7 años desde la firma de DORA y 4 desde la publicación del Manifiesto de Leiden y nada ha cambiado. Las instituciones contratadoras, evaluadoras y financiadoras siguen usando las mismas métricas, lo que contribuye a aumentar la presión en los científicos. En España, tanto la ANEP, como la ANECA o la CENAI, así como la AEI, el CSIC y las universidades siguen confiando en los rankings del JCR y el SCI para valorar los CV de los investigadores. Pero, como decimos, se trata de un problema mundial. En 2013, Peter Higgs, sí el del Bosón de Higgs, decía que si le hubieran evaluado de la forma que se evalúa a los investigadores en la actualidad, nunca habría conseguido un trabajo en la academia porque no sería lo suficientemente productivo.

Ante esta situación, parece evidente que la ciencia ha llegado a un callejón sin salida. El sistema se sostiene a duras penas, pero pierde credibilidad a chorros por la herida que han infligido los mismos autores que antes lo sustentaban. Muchos se niegan ya a revisar artículos de otros colegas porque saben que contribuyen al sostenimiento de un sistema injusto en el que otros se enriquecen gracias a su trabajo gratuito. Por otra parte, comienzan a surgir revistas sin escrúpulos que no tienen reparo en degradar el rigor científico por tal de hacer caja. Son las llamadas revistas depredadoras, que ya denunciábamos hace unos años en otro post. Pero no son solo estas revistas, sino que cada vez más nos encontramos con editoriales “de prestigio” que están tomando rumbos parecidos, por ejemplo rechazando manuscritos en sus versiones de suscripción para derivarlos a sus versiones en acceso abierto, con las que ganan más dinero. Lamentablemente, los estados y organismos financiadores, así como las instituciones investigadoras no hacen lo suficiente, puesto que se limitan a adaptarse a duras penas a un mundo en constante cambio. Mientras, la ciencia pierde credibilidad y los científicos confianza

¿Qué podemos hacer? ¿Qué está en nuestra mano cambiar?

Desde Ciencia Con Futuro proponemos 4 ejes sobre los que trabajar para revertir esta situación y devolver a la ciencia la credibilidad y el rigor.

1. Reducir la presión por publicar a los grupos de investigación académica: publicar menos para publicar mejor. Los científicos de todo el mundo estamos de acuerdo en que la ciencia necesita sus tiempos, que generalmente son más lentos que los de los organismos financiadores y las editoriales. Quizá sea necesario alargar los tiempos para permitir que las investigaciones puedan realizarse con tranquilidad y paciencia. Quizá de ese modo se resuelva la crisis de reproducibilidad y de fraude consecuencia de la presión y la competitividad. El número de publicaciones o el factor de impacto asociado no pueden ser criterios fundamentales para definir la calidad de un grupo de investigación.

2. Reducir la presión por publicar a los investigadores: hacer mejor ciencia no implica publicar más. Fundamentar la evaluación de los científicos en torno al número de publicaciones o el factor de impacto de publicaciones previas está generando multitud de abandonos en la carrera científica. No podemos mantener este sistema de evaluación tan injusto y seguir expulsando del mundo de la investigación académica a tantos profesionales con talento.  Necesitamos nuevos criterios de evaluación para cuantificar la valía de un científico.

2. Desmercantilizar la producción científica. ¿Dónde está escrito que para trasladar los conocimientos científicos generados a otros investigadores y a la sociedad sea necesario pasar por la esclavitud de las editoriales? Quizá eso fuera verdad en el s. XX, pero en nuestro siglo ya no es cierto. En la era de internet no necesitamos editoriales para compartir ciencia. Tenemos repositorios y nuevos sistemas que podemos emplear para compartir nuestros resultados sin necesidad de que detrás haya un beneficio económico. Y muchos nuevos que surgirán.

3. Detener la industrialización de la ciencia. La ciencia puede funcionar mejor cuando no está sometida a las lógicas y dinámicas empresariales. Por ejemplo, los objetivos y rendición de resultados de una actividad empresarial no son los mismos. Eso no significa que las investigaciones científicas no deban tener objetivos y que no se deban rendir cuentas. Todo lo contrario, debe hacerse, pero no desde un punto de vista industrial, sino atendiendo a las peculiaridades de los sistemas científicos. En la industria, sino hay beneficio, se fracasa. En ciencia no tiene por qué ser así. Un resultado negativo puede ser de gran utilidad y puede ayudar a otros investigadores a detener experimentos que conducen a callejones sin salida. Otro ejemplo: la serendipia, que tantos buenos resultados ha dado en ciencia, no tiene cabida en la industria.

4. No pedir productividad ni rendimiento económico: “Cultivemos la ciencia por sí misma, sin considerar por el momento las aplicaciones. Éstas llegan siempre. A veces tardan años, a veces siglos”. Esto lo decía Santiago Ramón y Cajal hace casi 100 años y sigue teniendo mucho de verdad. No sabemos cuándo llegarán los beneficios y las aplicaciones de los descubrimientos científicos del mundo académico, sólo sabemos que llegarán. Por eso no tiene sentido exigir rendimiento a corto plazo y menos si es económico. Hay que tener en cuenta que la actividad científica tiene un elevado grado de incertidumbre y debe ser respetada si queremos que los investigadores puedan confiar en sus resultados.

Todos lo que hemos trabajado en un laboratorio hemos escuchado mil veces a nuestros mayores decir que la paciencia es la madre de la ciencia. Pero eso se ha acabado. Sometida a la presión por producir, la ciencia mercantilista ha cometido un matricidio, ha matado a su propia madre (la paciencia) y ha quedado huérfana. Ahora necesita abrir la espita de la olla y liberar la presión, para permitir que los investigadores podamos volver a hacer ciencia por sí misma, porque esa es la ciencia que nos hace más humanos.

2 comentarios en «Editoriales académicas: un pelotazo de décadas que amenaza la credibilidad de la ciencia»

  1. Gracias por el artículo, muy bueno. Pero creo que un par de afirmaciones sobre los modelos OA no son del todo correctas.

    El green OA no siempre implica un embargo (https://en.wikipedia.org/wiki/Open_access#Embargo_periods). Muchas revistas permiten compartir una copia del artículo sin esperar un periodo de embargo.

    Y el diamond OA no siempre funciona con voluntarios ni es “otra forma de trabajar gratis para las editoriales para que sigan haciendo negocio”. Muchas revistas diamond no son gestionadas por editoriales sino que utilizan plataformas abiertas totalmente gratuitas (como Open Journal Systems, https://pkp.sfu.ca/recursos-ojs-en-espanol/). Creo que el CSIC lo usa para muchas de sus revistas. Y muchas veces hay apoyo económico de entidades académicas o instituciones que permiten contratar a gente para gestionar la revista.

    Gracias

Deja una respuesta