La ‘intrusió’ del programa d’intel·ligència artificial ChatGPT com a autor en com a mínim quatre articles científics a publicacions i prepublicacions acadèmiques ha causat un gran rebombori en el sector. En un reportatge publicat a la prestigiosa revista ‘Nature’, s’explora com els editors i responsables de revistes científiques i també els mateixos investigadors estan debatent quin és el lloc d’aquest tipus d’eines en el camp de la literatura acadèmica i també si cal adaptar les normes de publicació a la seva existència.
Un programa que està obrint grans debats ètics
ChatGPT és un model lingüístic que genera frases coherents imitant els patrons que conté la seva enorme base de dades, extreta d’internet. A causa de la seva capacitat per imitar la manera com escriuria una persona real, fins i tot en l’àmbit acadèmic, aquesta eina gratuïta, presentada el passat novembre per la companyia tecnològica OpenAI, està obrint debats ètics de tot tipus.

A dia d’avui, ChatGPT ha aparegut com un dels 12 autors d’un article en prepublicació sobre l’ús d’intel·ligència artificial per a l’educació mèdica a ‘medRxiv’; en un editorial a ‘Nurse Education in Practice’; en un article a ‘Oncoscience’ i, pel que sembla, encara hi ha un altre article que serà publicat properament que ha fet servir no aquesta darrera versió del programa sinó una d’anterior.
Els autors han de poder fer-se responsables dels articles
De moment, els editors i els servidors de prepublicació amb què va contatar ‘Nature’ consideren que ChatGPT no pot ser considerat autor d’un estudi perquè no pot fer-se responsable del contingut i la integritat de l’article. No obstant això, n’hi ha que creuen que la contribució d’una IA pot ser reconeguda en una secció a banda dels autors. De fet, un dels editors contactats per al reportatge va explicar a ‘Nature’ que la inclusió de ChatGPT com a coautor en un dels articles que havia publicat havia estat un error que es corregiria ben aviat.

Els editors en cap de dues de les principals publicacions acadèmiques del món, ‘Nature’ i ‘Science’, afirmen que ChatGPT no compleix els estàndards d’autoria perquè, amb ella, hi ha una presa de responsabilitat sobre el treball que no pot aplicar-se a un programa informàtic. Així doncs, els investigadors que facin servir aquest tipus de tecnologies en el desenvolupament d’un article l’haurien de documentar a la secció de mètodes o de reconeixements i no pas a la d’autors. De fet, fer servir un text generat per una IA sense citar podria ser considerat plagi.