Un gran grup d’experts en intel·ligència artificial (IA) d’arreu del món han publicat un manifest on alerten que aquesta tecnologia pot arribar a dur la humanitat a l’extinció. Signat per moltíssimes personalitats del sector, inclosos els directors d’OpenAI (ChatGPT) i Google Deepmind, el document afirma que reduir el risc que suposa hauria de ser “una prioritat global” tan important com les mesures que es prenen per evitar pandèmies o guerres nuclears.
Entre els signants també hi ha el doctor Geoffrey Hinton, el professor Yoshua Bengio, considerats els pares de la intel·ligència artificial pels seus treballs i avenços en aquest camp i que, fins i tot, van rebre el Premi Turing l’any 2018 reconeixent la seva contribució a la informàtica. El tercer guanyador d’aquest guardó tan prestigiós, però, el professor Yann LeCunn, no ho ha fet, considerant que les afirmacions del manifest són excessivament alarmistes.

Una nova veu d’alarma
El cert, però, és que no és la primera vegada que s’adverteix dels perills que la intel·ligència artificial pot suposar per a la humanitat, per bé que l’opinió està dividida entre els qui consideren que és així i els que, en oposició, pensen que els escenaris apocalíptics sobre el futur de la IA no són realistes i que no només no tenen la capacitat de fer reals aquestes pors sinó que, a més, declaracions com aquestes, que consideren alarmistes, desvien l’atenció dels problemes reals d’aquesta tecnologia, com ara els biaixos que caldria corregir i que poden suposar greuges reals.
Sigui com sigui, aquest és l’enèsim crim d’alerta de personalitats i experts sobre el possible futur de la IA, incloent el que, el passat mes de març, va reunir personalitats com Elon Musk en una petició perquè s’aturés durant un temps el desenvolupament d’aquesta tecnologia per impedir que esdevinguin més nombroses i més intel·ligents que els humans i ens substitueixin.
En aquest cas, el manifest compara el risc de les IA amb la que va suposar la guerra nuclear, en la línia d’OpenAI que, recentment, va proposar que aquest tipus d’intel·ligències fossin regulats d’una manera semblant, amb una organització equivalent a l’Agència Internacional de l’Energia Atòmica.