La conciencia de cuándo no se puede confiar en un artÃculo suele ser demasiado baja, pero adoptar algunas soluciones tecnológicas fáciles de usar puede ayudar a investigadores, editores y jurados.
Las retractaciones de artÃculos han ido creciendo de forma constante durante las últimas  décadas, alcanzando una cifra récord de casi 14.000 el año pasado, en comparación con menos de 1.000 por año antes de 2009.
Retirar artÃculos de investigación defectuosos es parte de un proceso cientÃfico saludable. No todas las retractaciones se deben a una mala conducta; también pueden ocurrir cuando se cometen errores, como cuando un grupo de investigación se da cuenta de que no puede reproducir sus resultados.
Pero, independientemente de la cantidad de resultados erróneos que se hayan incluido en un artÃculo publicado, es importante que no se propaguen en la literatura cientÃfica. Nadie quiere basar su razonamiento en premisas falsas. De la misma manera que muchas personas no aceptarÃan un tratamiento médico respaldado por ensayos clÃnicos dudosos, la comunidad cientÃfica no quiere que los investigadores, el público y, cada vez más, la inteligencia artificial (IA) se basen en datos erróneos o en conclusiones extraÃdas de artÃculos erróneos.
Un aspecto que a menudo se pasa por alto es lo que sucede con los artÃculos que citan investigaciones revocadas. Por ejemplo, en junio, un artÃculo de Nature sobre células madre fue retirado en medio de preocupaciones sobre la fiabilidad de los datos mostrados, 22 años después de su publicación, tras haber acumulado casi 5.000 citas. Por supuesto, un artÃculo incluye referencias por diversas razones, como proporcionar contexto, presentar trabajos relacionados o explicar el protocolo del experimento.
Una retractación no significa que todos los artÃculos que citaron el artÃculo retractado ahora también sean poco fiables, pero algunos podrÃan serlo. Como mÃnimo, los investigadores deberÃan estar al tanto de cualquier retractación entre los estudios que han citado. Esto les permitirÃa evaluar los posibles efectos negativos en su propio trabajo y mencionar las advertencias pertinentes claramente si continúan citando el artÃculo retractado en el futuro. Pero, hasta donde yo sé, no existe un proceso sistemático para que los editores alerten a los académicos que citan cuando se retracta un artÃculo. DeberÃa haberlo.
Más allá de las retractaciones, lo que se necesita es un mecanismo a gran escala para impedir que los errores se propaguen en la literatura cientÃfica. Las herramientas existen, pero ahora es necesario cambiar las prácticas.
Sacudiendo el statu quo
Las publicaciones y las citas son moneda corriente importante en el ámbito académico. Sin embargo, puede resultar difÃcil de distinguir los artÃculos o las citas dudosas de las auténticas. Esto, combinado con el hecho de que la revisión editorial, por pares y los procesos de publicación dependen en gran medida de la confianza, ha dado lugar a muchas distorsiones.
Las métricas de desempeño de un investigador (incluido el número de artÃculos publicados, las citas obtenidas y los informes de revisión por pares presentados) pueden servir para construir una reputación y visibilidad, lo que lleva a recibir invitaciones para hablar en conferencias, revisar manuscritos, ser editor invitado de números especiales y unirse a consejos editoriales. Esto puede dar más peso a las solicitudes de empleo o ascenso, ser clave para atraer financiación y generar más citas, todo lo cual puede construir una carrera de alto perfil. Las instituciones generalmente parecen felices de albergar a cientÃficos que publican mucho, son muy citados y atraen financiación.
Han surgido empresas inescrupulosas conocidas como fábricas de papel que se aprovechan de este sistema. Producen manuscritos basados en datos inventados, manipulados o plagiados, venden esos manuscritos falsos junto con las autorÃas y las citas, y diseñan el proceso de revisión por pares.
Pero los editores respetables también son cómplices cuando publican artÃculos de investigadores de alto perfil (incluidos algunos que podrÃan haber ganado visibilidad rápidamente mediante prácticas dudosas o deshonestas) y utilizan regularmente a esas personas como revisores y editores. La industria editorial se beneficia de grandes volúmenes de artÃculos, incluidos aquellos que no son cientÃficamente sólidos.
Herramientas para el cambio
Los investigadores, editores, instituciones y financiadores deben actuar para defender la integridad del registro cientÃfico.
Los cientÃficos que descubren un artÃculo sospechoso o problemático pueden denunciarlo por la vÃa convencional, poniéndose en contacto con el equipo editorial de la revista en la que apareció. Pero puede resultar difÃcil averiguar cómo plantear sus inquietudes y con quién. Además, este proceso no suele ser anónimo y, dependiendo de la dinámica de poder en juego, algunos investigadores pueden no estar dispuestos o no poder participar en estas conversaciones.
Y las revistas son notoriamente lentas. El proceso requiere que el personal de la revista medie en una conversación entre todas las partes, una discusión en la que los autores del artÃculo criticado suelen ser reacios a participar y que a veces implica datos adicionales y revisores posteriores a la publicación. La mayorÃa de las investigaciones pueden tardar meses o años antes de que se hagan públicos los resultados.
Existen otras vÃas para cuestionar un estudio después de su publicación, como comentar en la plataforma PubPeer, donde se publican cada vez más artÃculos. Hasta el 20 de agosto, 191.463 artÃculos habÃan recibido comentarios, casi todos ellos crÃticos. Pero los editores no suelen controlarlos y los autores de un artÃculo criticado no están obligados a responder. Es habitual que los comentarios posteriores a la publicación, incluidos los de investigadores eminentes en el campo, planteen cuestiones potencialmente importantes que no son reconocidos por los autores ni por la revista que los publica.
En febrero de 2021, lancé Problematic Paper Screener (PPS). Este software originalmente marcaba texto generado aleatoriamente en artÃculos publicados. Ahora rastrea una variedad de problemas para alertar a la comunidad cientÃfica sobre posibles errores.
He ideado una herramienta para que el PPS rastree la literatura en busca de “frases torcidas” sin sentido que proliferan en la literatura cientÃfica. Cada frase torcida debe ser primero detectada por un lector humano, y luego añadida como una “huella digital” a la herramienta que examina regularmente la literatura utilizando los 130 millones de documentos cientÃficos indexados por la plataforma de datos Dimensions. Hasta ahora, se han recopilado 5.800 huellas digitales. Los humanos participan en un tercer paso para comprobar si hay falsos positivos.
Para leer artÃculo completo, ingrese con su usuario a IntraMed