TAREA 4

 De las lecturas de la semana pasada, lo que más me ha llamado la atención es la tensión entre la revisión por pares como ideal de calidad y su funcionamiento real, lleno de sesgos y limitaciones, junto con el uso a menudo perverso del factor de impacto como sucedáneo de la calidad individual.

La revisión por pares es considerada el "gold standard" de la ciencia, pero varios autores han señalado que es lenta, costosa, poco reproducible y propensa a sesgos como el favoritismo institucional o la hostilidad hacia resultados novedosos (Smith, 2006). Me sorprendió especialmente que los estudios empíricos muestran que la revisión por pares apenas mejora la detección de errores graves comparada con una edición sin revisores externos (Jefferson et al., 2007). Sin embargo, sigue siendo el mecanismo menos malo que tenemos.

Por otro lado, el factor de impacto (JIF) nació como una herramienta bibliométrica para ayudar a las bibliotecas a decidir qué revistas suscribir, no para evaluar artículos individuales ni mucho menos investigadores (Garfield, 2006). Pero se ha convertido en un fetiche que distorsiona la práctica científica: se publica por impacto, no por rigor; se persiguen temas de moda; se fomenta el "salami slicing" (publicar mínimo publicable) y la presión por resultados positivos (Brembs et al., 2013). La Declaración de San Francisco sobre Evaluación de la Investigación (DORA) ya instó a no usar el factor de impacto como sustituto de la calidad de trabajos individuales (Alberts et al., 2015).

Una idea que me quedó muy clara es que ambos mecanismos —revisión por pares y factor de impacto— son herramientas imperfectas que requieren uso crítico. No deberíamos idolatrarlos ni demonizarlos, sino entender sus sesgos y complementarlos con otras prácticas: revisión abierta, preprints, evaluación por paneles basada en el contenido y no en la revista.

Por último, coincido en que "dar un paseo" por los blogs de compañeros enriquece mucho los puntos de vista. Leer cómo otros interpretan estas mismas lecturas permite detectar matices que uno mismo pasa por alto. La diversidad de perspectivas es precisamente lo que la revisión por pares bien hecha intenta capturar.

Referencias

Alberts, B., Cicerone, R. J., Fienberg, S. E., Kamb, A., McNutt, M., Nerem, R. M., ... & Zuber, M. T. (2015). Self-correction in science at work. Science, *348*(6242), 1420-1422.

Brembs, B., Button, K., & Munafò, M. (2013). Deep impact: Unintended consequences of journal rank. Frontiers in Human Neuroscience, *7*, 291.

Garfield, E. (2006). The history and meaning of the journal impact factor. JAMA, *295*(1), 90-93.

Jefferson, T., Rudin, M., Brodney Folse, S., & Davidoff, F. (2007). Editorial peer review for improving the quality of reports of biomedical studies. Cochrane Database of Systematic Reviews, (2), MR000016.

Smith, R. (2006). Peer review: a flawed process at the heart of science and journals. Journal of the Royal Society of Medicine, *99*(4), 178-182.

Comentarios

  1. Es importante conocer el valor curricular de las publicaciones (lo de las citas, el factor de impacto, etc) por que es con eso con lo que nos van a ir evaluando, al menos parcialmente.

    ResponderEliminar

Publicar un comentario

Entradas populares de este blog

QUE ES CIENCIA 400 PALABRAS

TAREA 3