Del factor de impacto a la desinformación: Jordi Camí reflexiona sobre la crisis de integridad en la publicación científica

El director general del PRBB, Jordi Camí, analiza cómo el modelo de evaluación basado en publicaciones pierde credibilidad ante el fraude, la desinformación y la IA generativa.

Jordi Camí, director general del PRBB

Jordi Camí, director general del PRBB

Los papers siguen siendo la pieza central de cómo se comparte y se evalúa la ciencia hoy en día. Pero el sistema que los sostiene está bajo presión. El modelo clásico de evaluación basado en la producción bibliográfica pierde credibilidad, mientras crecen nuevas formas de fraude y aparecen iniciativas estructurales de desinformación.

Este fue el eje de la sesión científica “Del factor de impacto a la desinformación”, a cargo de Jordi Camí, director general del PRBB, y organizada por el Grupo de Buenas Prácticas del PRBB el pasado noviembre.

Un modelo “acorralado” por sus propias reglas

En su charla, Camí conecta diferentes temas con los que seguro muchas personas investigadoras se sienten identificadas: presión por publicar, modelos de evaluación que aún se basan en la producción bibliográfica, y una cultura de la ciencia donde el prestigio de publicar acaba pasando por encima de temas como el rigor, la transparencia y la contribución real y novedosa al mundo de la ciencia. 

Además, Camí plantea una idea incómoda pero muy actual: cuando la carrera científica se apoya, sobre todo, en métricas y en el volumen de publicaciones, el sistema se vuelve más vulnerable. No solo porque incentiva atajos, sino porque facilita que actores externos exploten las debilidades del circuito editorial. Según Camí, ya no hablamos solo de casos de mala práctica aislados, sino de un entorno donde la integridad se convierte en un reto sistémico y donde las respuestas también deberían serlo.

Cuando el fraude se convierte en negocio

La sesión también puso el foco en la llamada “industria del fraude” que, según Camí, no deja de crecer y evolucionar, poniendo en riesgo tanto la credibilidad de la comunidad científica como la de las instituciones académicas. Tal como comentaba Camí, cada año se crean nuevas revistas para aumentar las denominadas “autocitas”, creando incluso perfiles falsos en plataformas como ResearchGate y publicaciones que reutilizan otros contenidos —o los plagian—para aumentar el número de papers de una institución y sus citas.

“El sistema de comunicación científica de referencia, los papers, está inmerso en una crisis de integridad sin precedentes”
Jordi Camí, PRBB director

En términos prácticos, esto significa que las instituciones deben pensar más allá de la detección y penalización de fraudes. Necesitan crear de manera activa un entorno que favorezca las buenas prácticas. Esto incluye formación, procedimientos claros, e incentivos y recompensas en base a la calidad y la integridad, y no solo a la cantidad. Este es precisamente uno de los mensajes que se transmiten en el Código de Buenas Prácticas Científicas del PRBB, que pone su acento en la responsabilidad institucional —y no solo individual— de mantener la integridad científica.

IA generativa: una nueva “mutación” del problema

A este panorama se suma una novedad que está cambiando el ritmo de todo: la Inteligencia Artificial (IA) generativa, capaz de producir textos, imágenes o materiales con apariencia científica a gran velocidad. Camí describe este momento como una “nueva mutación” del escenario, que obliga a repensar controles, transparencia y cultura de buenas prácticas.

Esto no quiere decir que la IA sea el problema. Pero quiere decir que es necesario que el sistema hable de la ética de la IA, cree normativas más estrictas con estándares claros, más transparentes y que impulsen una cultura donde la rendición de cuentas no se diluya.

Llegados a este punto es inevitable hacerse la pregunta de si el modelo actual de publicación científica tiene o no los días contados.

¿Puede el modelo de evaluación de la ciencia sobrevivir sin cambiar?

Jordi Camí cierra el círculo con la pregunta a la que actualmente se enfrentan muchas Instituciones: si la credibilidad está en entredicho, ¿tiene sentido que el modelo de evaluación de la ciencia siga como hasta ahora? Y si no lo hace, ¿qué alternativas suficientemente sólidas tenemos?

Si hablamos de evaluación, ya hay algunas alternativas en marcha. Por ejemplo, los CV narrativos y otros enfoques que intentan reconocer contribuciones más allá de la lista de publicaciones.

En realidad, este debate no empieza hoy: desde hace años existen iniciativas internacionales que piden dejar de usar el factor de impacto como atajo para medir calidad. La más conocida es la Declaración de San Francisco sobre Evaluación de la Investigación (DORA), que recomienda no utilizar métricas basadas en revistas —como el Journal Impact Factor— como sustituto de la calidad de un artículo o de la contribución de una persona investigadora.

En Europa, el impulso más reciente va de la mano del “Acuerdo para Reformar la Evaluación de la Investigación” de la Coalición para el Avance de la Evaluación de la Investigación (COARA), que propone ampliar qué se valora (resultados diversos, prácticas de ciencia abierta, colaboración, integridad, impacto, etc.) y reducir incentivos que acaban alimentando malas prácticas.

Si te interesa el tema, puedes explorar más contenidos en El·lipse bajo la etiqueta Buenas Prácticas Científicas.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *