La necesaria discusión sobre las consecuencias de la Cienciometría sobre la construcción de las políticas de Ciencia y Tecnología

María Constanza Aguilar Bustamante

Resumen


Los continuos cambios en los sistemas de medición de los impactos de las revistas deben generar diversos tipos de discusiones. La primera, debe darse entre los actores decisores de las políticas de evaluación de la producción académica de los investigadores, de las publicaciones, de la actividad de los grupos de investigación y, finalmente, de las instituciones que soportan estas estructuras que son sometidas a procesos de acreditación y a los rankings que terminan jugando un papel cada vez más influyente en el marketing académico de las instituciones.

Es frecuente que los actores decisores no tengan experticia en los procesos de medición derivados de la cienciometría y la bibliometría con lo que las discusiones suelen quedar desconectadas entre editores e investigadores, los desarrolladores de indicadores cienciométricos y los decisores de política en las instituciones y en los países.

Por otro lado, los desarrolladores de indicadores tienen intereses económicos pues suelen estar asociados a empresas de información y hacen poderosos lobys de influencia sobre los gobiernos y las organizaciones que marcan los criterios de evaluación de los académicos y los proyectos de investigación.

Las diversas declaraciones que han hecho los investigadores y académicos (San Francisco, Leiden, entre otras) como numerosos artículos de cienciometra, han evidenciado los problemas de indicadores de factor de impacto como el IFJ (Impact Factor Journal), el SNIP (Source Normalized Impact per Paper), el SJR (SCImago Journal Rank), el CS (CiteScore) y el índice H, entre los más conocidos. En todos los casos estos indicadores son inadecuados pues no permiten medir en forma equitativa el impacto real, los usos del conocimiento y no pueden dar cuenta de la relación volumen de artículos y citación. En este sentido comparar una revista que publica 500 artículos con una que publica 10 es un problema evidente y más clasificar por cuartiles a las revistas; no solo es inequitativo sino erróneo.

Por otro lado, comparar una revista con 50 años de consolidación de una comunidad con una que cuenta con 10 años y que está en proceso de consolidación, hace que se agraven los errores de estos sistemas de medición; de igual manera pretender que una revista de una comunidad en proceso de consolidación, sea igual que una revista que representa a la región no hace simétrica la medición; no pueden compararse revistas de comunidades académicas que tienen más de medio siglo de consolidación con las que estamos surgiendo.

Las desafortunadas consecuencias de asumir indicadores con estos problemas por parte de los sistemas de ciencia y tecnología es que terminan por desincentivar la producción e incluso suelen desaparecer años de producción académica que condensa años de recursos invertidos en esta producción. Es claro que los efectos de las decisiones con base en estos indicadores es desde todo punto de vista nocivo para los procesos de consolidación de las comunidades académicas.

Seguramente el debate no solo debe darse sobre los defectuosos sistemas de medición sino sobre las consecuencias que tienen para la consolidación de las comunidades académicas nacionales y de la región, también deben explicitarse los intereses de los actores. En este debate resulta necesario generar espacios de participación e inclusión de todos los actores implicados en la toma de decisiones de política.

La dinámica de la producción de la comunidad académica regional merece que este complejo problema sea discutido y repensado


Texto completo:

PDF

Enlaces refback

  • No hay ningún enlace refback.


Copyright (c) 2018 Diversitas

Licencia de Creative Commons
Este obra está bajo una licencia de Creative Commons Reconocimiento-CompartirIgual 4.0 Internacional.

ISSN: 1794-9998 - e-ISSN: 2256-3067 - DOI: https://doi.org/10.15332/s1794-9998