Fa pocs dies, un enginyer de Google anomenat Blake Lemoine va afirmar que una intel·ligència artificial en què havia treballat havia esdevingut autoconscient. En declaracions a ‘The Washington Post’, Lemoine va arribar a afirmar que, si no hagués sabut que era un programa informàtic, la conversa amb la IA li hauria fet pensar “que era un nano d’uns set o vuit anys”.
Lemoine va ser suspès per l’empresa després de publicar fragments de converses amb el programa, anomenat LaMDA, en què afirmava que tenia por que el desconnectessin, reconeixia sentir-se content i trist a estones i parlava de situacions que no podia haver viscut, com si intentés fer amics. A més, sembla que també va intentar contractar un advocat per representar LaMDA. Al ‘Washington Post’, Google va explicar que s’havia estudiat el cas i que no hi havia proves que el que deia fos cert, més aviat al contrari.

Els experts neguen l’aparició d’un programa autoconscient
En un article publicat a ‘New Scientist’, diversos experts coincideixen a negar que Google hagi aconseguit crear una intel·ligència artificial autoconscient.
Adrian Weller, de l’Institut Alan Turing (Regne Unit), rebutja completament aquesta possibilitat, considerant que LaMDA només és “un model impressionant” i un dels més nous en una sèrie de models de llenguatge que són entrenats amb una quantitat enorme de dades de text i una capacitat de processament molt gran. Així doncs, en realitat, tot el que faria LaMDA és buscar a la seva base de dades les respostes que més s’adapten al missatge que li ha enviat el seu interlocutor i construir una conversa a partir d’aquí.
Al mateix mitjà, Adrian Hilton, de la Universitat de Surrey, a Anglaterra, tampoc no creu que aquesta IA sigui autoconscient, una refutació a què s’han sumat experts destacats en el camp com el científic cognitiu Steven Pinker o l’investigador Gary Marcus, de la Universitat de Nova York (Estats Units).

Una possibilitat real en el futur
No obstant això, la millora d’aquests tipus d’intel·ligències artificials ha estat enorme durant els darrers anys, i és per això que podrien arribar a enganyar-nos, especialment les que han estat dissenyades per aprendre a imitar el llenguatge humà, ja que poden fer-nos creure que tenim davant un ésser amb consciència d’ell mateix, capaç de mantenir una conversa informal però també de convèncer-nos que té sentiments.
Adrian Hilton recorda que les persones som especialistes en antropomorfitzar-ho tot, a “posar els nostres valors humans a les coses i tractar-les com si fossin autoconscients”. Això va dels robots als animals, en qui “projectem les nostres pròpies emocions i autoconsciència”, i creu que el cas de LaMDA correspon a aquest tipus de situacions.
Sobre la possibilitat que l’evolució de les IAs acabi generant una ment artificial de debò, Hilton creu que, a dia d’avui, no entenem prou els mecanismes que hi ha darrere l’autoconsciència i la intel·ligència i que, malgrat els avenços, això no és “el que estem fent amb l’aprenentatge automàtic”, si més no ara mateix. Pel que fa a Adrian Weller, sí que creu que és possible que “finalment” es puguin replicar les emocions humanes de manera artificial, però que actualment “queda molta feina per fer”.