La verdad y otras mentiras

“Un Chalchalero no es un Rolling Stone”

Acerca del "espinoso" tema de la revisión por pares en las publicaciones científicas.

Todos quienes alguna vez hemos enviado un trabajo a una publicación de primer nivel internacional conocimos la incertidumbre acerca de su destino y, secretamente, le hemos temido a la humillación del trato desigual por llegar desde países alejados del centro geopolítico del planeta.

¿Temores infundados? ¿Simple complejo de inferioridad sudamericana? ¿Verdad o mentira?

El paradigma vigente en el mundo científico se sustenta en la cantidad de papers que un investigador logre publicar en las revistas con referato más importantes del mundo o en los grandes congresos internacionales. De esta manera se establece un criterio de evaluación que orienta la asignación de recursos bajo la modalidad de subsidios, becas, nombramientos y su efecto colateral más complejo: el prestigio profesional, el reconocimiento de la comunidad de pares y la muy errática sensación de autorrealización personal. Por ello no resulta extraño que las personas dediquen grandes esfuerzos para que sus trabajos accedan a esos escenarios. Convertida en la medida de todas las cosas, la presión por publicar resulta en ocasiones inmisericorde y cruel. Así se ha originado una situación que se describe como “publicar o perecer” (“publish or perish”) revelando la trascendencia vital que este suceso tiene para la propia supervivencia del investigador.

La inserción en el ámbito del saber de los criterios de productividad y eficiencia que proceden de la industria actualiza el áspero tema de las recompensas y del éxito. ¿Qué premio busca quien investiga? ¿Son sus resultados o lo que de ellos se deriva la meta personal del investigador? ¿Saber o triunfar es la meta?¿En qué moneda se cuenta el éxito científico? ¿Qué distingue a un científico de un rock star?

La revisión por pares, según la definió el Dr. Mario Albornoz1 - uno de los expertos de mayor relevancia internacional- en las Jornadas IntraMed 2007:

“Es un sistema cuyo propósito es garantizar la calidad de los artículos. Se trata de una práctica que tiende a:

  • Legitimar el contenido de los trabajos mediante su evaluación por revisores institucionalmente designados y manifiestamente competentes.
  • Difundir los conocimientos y ponerlos al alcance de la comunidad científica para su contrastación.

Según SCOPUS, que es la base de datos de revistas científicas más numerosa, se recogen 14,671 publicaciones. Esto representa una masa de más de 33 millones de artículos, con representatividad estadística desde 1969.

Existen algunas iniciativas como SciELO o Latindex que agrupan a las publicaciones provenientes de Latinoamérica”.

Albornoz concluye que: “el laberinto de informaciones es un laberinto jerarquizado en el cual las publicaciones de los países más avanzados tienen mayor visibilidad. Frente a ello hay dos conductas posibles:

  1. Aceptar como un hecho inevitable que la agenda de la ciencia internacional se escribe en el primer mundo.
  2. Tratar de aumentar la calidad y la visibilidad de la producción científica de los países de América Latina.

Esta última es la tarea a la que muchos en la región estamos abocados, en defensa de la identidad cultural, de la capacidad científica local y de la inclusión de los problemas que atañen a nuestras sociedades en la agenda de la investigación científica y tecnológica”.

 


Dime de dónde vienes y te diré si publicas, (o la mirada onfalocéntrica de los revisores)

En una muy prolija investigación publicada en JAMA2  y que sintetiza IntraMed en español, se realizó una experiencia cuyas conclusiones merecen atención. Se analizó el proceso de revisión de los abstracts enviados a las sesiones científicas de la American Heart Association entre los años 2000 y 2004. Durante el período 2000 – 2001 estos resúmenes contenían los datos identificatorios del autor y la institución a la que pertenecía (revisión “abierta”). Contrariamente a ello, en el período 2002 – 2004, esta información fue cancelada (revisión “ciega”). Comparados ambos procesos de selección de trabajos pudo demostrarse -a través de diferencias estadísticas muy significativas- que cuando se emplea el proceso de revisión “abierta” se favorecían a las investigaciones procedentes de:

  • Los Estados Unidos
  • Países de habla inglesa distintos de los EEUU
  • Instituciones de alto prestigio internacional
  • Autores vinculados con agencias del gobierno de los EEUU
  • Autores no relacionados con la industria privada

¿Qué significan estos datos para los investigadores de países no centrales?

Todo parece indicar que los revisores de los grandes centros del mundo tienen una manifiesta predilección por los trabajos que provienen de sus propios ámbitos. Esto no tendría nada de malo si la justificación para ello se sustentara en la calidad científica, pero la situación se modifica cuando, al ser privados de la información sobre los lugares de referencia, las evaluaciones cambian de un modo tan notorio. Este sesgo de preferencia pone en una situación de franca desventaja a los investigadores procedentes de otros lugares del mundo.

Está claro que muchos revisores aplican una mirada centrada en sí mismos o en sus verdaderos “pares” ya no sólo de la comunidad científica, sino de nacionalidad, prestigio, lengua e idiosincrasia cultural sobre los trabajos que evalúan. Pese a ello, la mayoría de los autores de países latinoamericanos buscan con gran empeño que sus investigaciones sean aceptadas en esas publicaciones en razón de la alta visibilidad que les confieren. Así, con el objeto de acceder a los estándares admitidos, muchas veces se producen desvíos temáticos que favorecen los problemas que resultan de mayor interés para las publicaciones y no siempre para las comunidades en las que se realizan.

¿Cómo sostener iniciativas de publicaciones científicas de alto nivel en la región cuando los trabajos más importantes continuarán siendo remitidos hacia publicaciones extranjeras?

Como un perro que se muerde la cola, la cuestión se plantea como una tuatología sin solución. No enviamos nuestros trabajos a los journals locales porque son de menor calidad y nivel de lectura pero, al mismo tiempo, las publicaciones locales seguirán siendo de inferior calidad y nivel de lectura mientras los papers más relevantes sean regularmente enviados a las publicaciones extranjeras.

La búsqueda del “factor de impacto” produce a su vez un alto impacto negativo sobre las publicaciones locales. Las condenan a limitarse a recibir trabajos de segundo orden o aquellos descartados por las revistas de los países centrales.

Alguien, alguna vez debería dar el primer paso para salir de éste círculo vicioso. Lo que por ahora podemos afirmar es que esta situación de asimetría se ha convertido por lo menos en objeto de investigación, que varias iniciativas regionales ya han adoptado altos niveles calidad editorial y que, ambas cosas, podrían resultar estimulantes maneras de comenzar a modificar lo que ocurre.

Mientras tanto nadie debería ignorar que, también en materia de publicaciones científicas, “un chalchalero no es un rolling stone”3.

Dr. Daniel Flichtentrei


Referencias:

1. Dr. Mario Albornoz, (Caicyt/Conicet), Jornadas IntraMed 2007, Academia Nacional de Medicina

2. Joseph S. Ross; Cary P. Gross; Mayur M. Desai; Yuling Hong; Augustus O. Grant; Stephen R. Daniels; Vladimir C. Hachinski; Raymond J. Gibbons; Effect of Blinded Peer Review on Abstract Acceptance. JAMA, April 12, 2006; 295: 1675 - 1680.

3. "Como un cuento", grupo Divididos.
Chalchalero: ave que habita el norte argentino, pertenece a la familia de los tordos y dio nombre al conjunto de música folklórica más conocido. Nombre científico: Turdus rufiventris rufiventris.

* Noticia relacionada:"Acerca del plagio en la ciencia"