Fa pocs dies, un enginyer de Google anomenat Blake Lemoine va afirmar que una intel·ligència artificial en què havia treballat havia esdevingut autoconscient. En declaracions a ‘The Washington Post’, Lemoine va arribar a afirmar que, si no hagués sabut que era un programa informàtic, la conversa amb la IA li hauria fet pensar “que era un nano d’uns set o vuit anys”.

Lemoine va ser suspès per l’empresa després de publicar fragments de converses amb el programa, anomenat LaMDA, en què afirmava que tenia por que el desconnectessin, reconeixia sentir-se content i trist a estones i parlava de situacions que no podia haver viscut, com si intentés fer amics. A més, sembla que també va intentar contractar un advocat per representar LaMDA. Al ‘Washington Post’, Google va explicar que s’havia estudiat el cas i que no hi havia proves que el que deia fos cert, més aviat al contrari.

La seu central de Google a Mountain View | Google
La seu central de Google a Mountain View | Google

Els experts neguen l’aparició d’un programa autoconscient

En un article publicat a ‘New Scientist’, diversos experts coincideixen a negar que Google hagi aconseguit crear una intel·ligència artificial autoconscient.

Adrian Weller, de l’Institut Alan Turing (Regne Unit), rebutja completament aquesta possibilitat, considerant que LaMDA només és “un model impressionant” i un dels més nous en una sèrie de models de llenguatge que són entrenats amb una quantitat enorme de dades de text i una capacitat de processament molt gran. Així doncs, en realitat, tot el que faria LaMDA és buscar a la seva base de dades les respostes que més s’adapten al missatge que li ha enviat el seu interlocutor i construir una conversa a partir d’aquí.

Al mateix mitjà, Adrian Hilton, de la Universitat de Surrey, a Anglaterra, tampoc no creu que aquesta IA sigui autoconscient, una refutació a què s’han sumat experts destacats en el camp com el científic cognitiu Steven Pinker o l’investigador Gary Marcus, de la Universitat de Nova York (Estats Units).

intel·ligència artificial  | Cedida
De moment, les intel·ligències artificials aprenen a establir relacions en base a les dades que se’ls introdueixen, fent servir diversos mètodes d’aprenentatge | Cedida

Una possibilitat real en el futur

No obstant això, la millora d’aquests tipus d’intel·ligències artificials ha estat enorme durant els darrers anys, i és per això que podrien arribar a enganyar-nos, especialment les que han estat dissenyades per aprendre a imitar el llenguatge humà, ja que poden fer-nos creure que tenim davant un ésser amb consciència d’ell mateix, capaç de mantenir una conversa informal però també de convèncer-nos que té sentiments.

Adrian Hilton recorda que les persones som especialistes en antropomorfitzar-ho tot, a “posar els nostres valors humans a les coses i tractar-les com si fossin autoconscients”. Això va dels robots als animals, en qui “projectem les nostres pròpies emocions i autoconsciència”, i creu que el cas de LaMDA correspon a aquest tipus de situacions.

Sobre la possibilitat que l’evolució de les IAs acabi generant una ment artificial de debò, Hilton creu que, a dia d’avui, no entenem prou els mecanismes que hi ha darrere l’autoconsciència i la intel·ligència i que, malgrat els avenços, això no és “el que estem fent amb l’aprenentatge automàtic”, si més no ara mateix. Pel que fa a Adrian Weller, sí que creu que és possible que “finalment” es puguin replicar les emocions humanes de manera artificial, però que actualment “queda molta feina per fer”.

Nou comentari

Comparteix