Un grup d’experts d’arreu del món, entre els quals hi ha algunes de les principals eminències en intel·ligència artificial (IA) han publicat una carta oberta on demanen que s’aturi l’entrenament d’aquest tipus de programes, que consideren que poden esdevenir una amenaça per a tota la humanitat. La suspensió de les activitats en IAs superiors a la GPT-4 hauria de tenir una durada de com a mínim sis mesos ja que, consideren, la cursa per desenvolupar aquests programes està fora de control.
Entre els gairebé 1.400 signants que té la carta en aquests moments hi ha el polèmic Elon Musk (Twitter, Tesla, SpaceX) però també el cofundador d’Apple, Steve Wozniak; alguns desenvolupadors de DeepMind, la filial d’IA de Google; i catedràtics d’aquest àmbit d’universitats d’arreu del món, inclosos el director del Barcelona Supercomputing Center, Mateo Valero; el professor de la Universitat de Barcelona (UB), Eduard Salvador-Solé; Jordi Miralda Escudé, de la UB i l’Institut de Ciències del Cosmos; Francesc Giralt, professor emèrit de la Universitat Rovira i Virgili; o Ramon Carbó-Dorca Carré, professor emèrit de la Universitat de Girona.

“Riscos profunds per a la societat i per a la humanitat”
La carta, redactada pel Future of Life Institute, demana aturar el desenvolupament d’IAs més avançades que GPT-4 i expressa la preocupació pel que podria passar amb sistemes més avançats: “els sistemes d’IA amb una intel·ligència que pot competir amb la dels humans pot suposar riscos profunds per a la societat i per a la humanitat”. En aquest sentit, apunta que en els darrers mesos els laboratoris d’IA han començat “una cursa sense control per desenvolupar i desplegar ments digitals encara més poderosa que ningú, ni tan sols els seus creadors, pot entendre predir o controlar amb seguretat”.
A més, la carta també apunta que les IA podrien omplir els canals d’informació amb desinformació i deixar sense feina centenars de milions de persones amb les seves capacitats. A més, i anant més enllà, es pregunta si és bona idea “desenvolupar ments no-humanes que en algun moment podrien superar-nos en número i en intel·ligència, fer-nos obsolets i substituir-nos”.

“Un règim autocràtic amb una superintel·ligència prenent decisions”
Tal com cita el document, fins i tot OpenAI, els desenvolupadors de ChatGPT, van advertir fa poc del perill de la intel·ligència artificial general (AGI) desenvolupada sense control: “una AGI superintel·ligent mal alineada podria causar danys terribles al món; un règim autocràtic amb una superintel·ligència prenent decisions podria fer-ho, també”.
Demanen la intervenció dels governs
La carta acaba dient que, si els laboratoris no decideixen per ells mateixos aturar el desenvolupament d’IAs de gran capacitat, haurien de ser els governs del món els qui decretessin una moratòria i es creessin institucions per regular les activitats en aquest camp amb l’objectiu de protegir tota la humanitat.