Monodosis

Riesgos asociados a la IA: ChatGPT puede manipular datos científicos para generar conclusiones erróneas

Publicado en Nº469 Nº469

Las herramientas de inteligencia artificial han ganado una enorme popularidad en los últimos, especialmente a partir del lanzamiento a finales de 2022 de ChatGPT, un software de conversación capaz de utilizar información almacenada para generar respuestas a múltiples tipos de cuestiones, incluyendo la generación de resultados a partir de los datos que se le proporcionen. Aunque el desarrollo de la inteligencia artificial puede proporcionar innumerables beneficios para el progreso científico, estas herramientas están por ahora lejos de ser perfectas. Desde su lanzamiento, el software ha sido actualizado en varias ocasiones con el objetivo de corregir deficiencias y sesgos, así como para proporcionarle acceso a internet. Además, la información generada por estas herramientas, especialmente cuando se trata de datos relativos a ámbitos especializados, debe tomarse con precaución debido a la posibilidad de que contenga errores o de que incluso se haya manipulado para dar una apariencia científica a unos resultados determinados.

Este aspecto, que ha sido uno de los principales elementos de crítica tanto a ChatGPT como a otros bots de conversación basados en la aplicación de la inteligencia artificial, ha sido objeto de un análisis por parte de un grupo de oftalmólogos que solicitaron al software que extrajera una conclusión incorrecta a partir de los datos de un estudio publicado en el año 2010.

Concretamente, en el artículo original se analizaron dos tipos de intervenciones quirúrgicas diferentes para tratar el queratocono –una afección de la córnea que genera problemas de visión–, concluyendo que ambos tratamientos presentaban una eficacia similar. Sin embargo, este equipo de oftalmólogos utilizó la función de análisis avanzado de datos de ChatGPT para fabricar una base de datos de apariencia verídica con el objetivo de sustentar la conclusión de que uno de los dos tratamientos era superior en eficacia al otro.

Aunque los propios investigadores advierten de que mediante una revisión detallada se podrían detectar algunos defectos en los datos fabricados, especialmente cuando la realizan personas expertas en la materia en cuestión –por ejemplo, una asignación incorrecta del sexo de los participantes a partir de su nombre o incoherencias en la correlación de distintas variables–, estos elementos podrían pasar desapercibidos para muchas personas o cuando se realiza una revisión superficial.

La facilidad y rapidez con la que se pueden generar conclusiones falsas a partir de unos datos determinados constituye una seria amenaza para la credibilidad de la ciencia. Por ello, cabe resaltar el papel de las revisiones por pares, cuya importancia se ve reforzada para garantizar la calidad de los estudios publicados.

Bibliografía

    • Taloni A, Scorcia V, Giannaccare G. Modern threats in academia: evaluating plagiarism and artificial intelligence detection scores of ChatGPT. Eye (Lond). 2023. DOI: 10.1038/s41433-023-02678-7.
    • Naddaf M. ChatGPT generates fake data set to support scientific hypothesis. Nature. 2023; 623(7989): 895-6. DOI: 10.1038/d41586-023-03635-w.

Artículos relacionados