Un estudi del Dartmouth College, als Estats Units, assenyala que la IA pot arribar a manipular enquestes en línia sense que detectin que les ha respost una intel·ligència artificial. L’equip d’investigadors va desenvolupar una eina d’IA amb la qual, en 43.000 proves, el bot d’IA va superar el 99,8% dels controls d’atenció, no va cometre errors en els trencaclosques lògics i va aconseguir amagar que no era un humà. Sean Westwood, autor de l’estudi, professor associat de Govern en Dartmouth i director del Polarization Research Lab, assenyala que “ja no podem confiar que les respostes de les enquestes provinguin de persones reals”. “Aquest treball demostra que la suposició fonamental de la recerca amb enquestes —que una resposta coherent és una resposta humana— ja no és sostenible”, assegura.
Un bot molt humà
Segons Westwood i el seu equip, la IA va arribar a ser capaç d’ajustar les respostes en funció de la demografia que els investigadors li van assignar: fent servir un llenguatge més culte i elaborat si se li atribuïa un nivell educatiu elevat i utilitzat un llenguatge més planer si se suposava que tenia un nivell educatiu més baix. De fet, Westwood alerta que “no són bots rudimentaris” sinó que els bots d’IA “raonen cada pregunta i es comporten com a persones acurades, fent que les dades semblin totalment legítims”. L’autor de l’estudi veu un futur molt negre i assegura que “si les dades estan contaminades per bots, la IA pot enverinar tot l’ecosistema del coneixement”.
“Respostes internament consistents”
“Vaig dissenyar i provar un enquestat sintètic autònom capaç de produir dades d’enquestes que posseeixen la coherència i la plausibilitat de les respostes humanes. Aquest agent evadeix amb èxit un conjunt complet de comprovacions de qualitat de dades, incloent-hi tasques de seguiment d’instruccions, trencaclosques lògics i preguntes de xibboleth invers dissenyades per detectar actors no humans”, adverteix l’investigador. “L’enquestat sintètic genera respostes internament consistents” i, en l’extrem més crític, “pot rebre instruccions per alterar maliciosament els resultats de les enquestes”. I, en un supòsit encara més subtil, “pot inferir les hipòtesis latents d’un investigador i produir dades que les confirmen artificialment”.

Més de la meitat dels escriptors del Regne Unit creu que la IA els substituirà
Un altre estudi elaborat per la Universitat de Cambridge alerta que més de la meitat dels novel·listes del Regne Unit (51%) creuen que la IA els substituirà. A més, el 59% dels escriptors admeten que han utilitzat les seves obres per poder entrenar els ‘bots’ d’IA i el 33% dels novel·listes que ha utilitzat la IA en el procés d’escriptura, principalment en “tasques no creatives”, com ara la cerca d’informació que els sigui útil per construir les seves obres.
