La tecnologia cada dia avança més ràpid i les intel·ligències artificials (IAs) cada cop tenen un paper més important en la presa de decisions. Tant, que els humans cada dia som més dependents de les màquines per processar informació i fins i tot per actuar. És per això que un equip d’investigadors ha mirat d’esbrinar si estem preparats perquè un algoritme prengui una decisió ètica per nosaltres, és a dir, com hi reaccionaríem. Els resultats han estat publicats a la revista ‘Journal of Behavioral and Experimental Economics’ i s’ha basat en experiments amb cotxes autònoms.

Dos experiments combinats

Al primer experiment, els investigadors van posar 529 persones davant del dilema ètic d’un conductor: estavellar-se contra un grup de persones o un altre, sense possibilitat d’evitar la col·lisió. Els participants van haver d’avaluar la decisió del conductor, que podia ser humà o una intel·ligència artificial. Així, es va poder avaluar si hi havia un biaix, i quin era, en contra de la presa de decisions per part d’una màquina.

Al segon experiment, 563 persones van respondre una sèrie de preguntes per determinar com reaccionaran al debat sobre les decisions ètiques preses per IAs un cop es tornin habituals. En aquest experiment hi havia dos escenaris. Al primer, un govern hipotètic ja ha decidit permetre que els ordinadors dels cotxes prenguin decisions ètiques. En l’altre, la població podia votar si es permetia o no que hi fessin. En tots dos casos, els participants podien estar a favor o en contra de la tecnologia, i l’objectiu era conèixer quin efecte tindria cada tipus d’introducció de les IAs a la societat.

Intel·ligència artificial | Maxpixel
Maxpixel

Diferències causades per la pressió social

Els resultats apunten que quan els participants avaluaven les decisions ètiques de persones o algoritmes, no tenien una preferència clara per cap d’ells. No obstant, quan se’ls preguntava l’opinió explícita sobre si el conductor humà hauria de poder prendre les decisions ètiques al volant, els participants es van posicionar molt més en contre de les IA.

Segons creuen els investigadors, això es deu a la combinació de dos elements. El primer és que els individus, per sí sols, creuen que la societat no vol que les IA prenguin decisions i, per tant, responen condicionats pel grup. Quan se’ls demana individualment que separin les seves opinions de les de la societat, en canvi, la diferència entre com es valoren les decisions de persones i de màquines desapareix.

El segon element és que, quan s’introdueix la tecnologia a la societat, permetre el debat té resultats diferents segons el país. Allà on les persones confien en el govern i tenen institucions polítiques robustes, la informació i el poder de decisió millora l’avaluació de les decisions ètiques de les IA, mentre que als llocs on la gent no confia en el govern i tenen institcions febles l’avaluació de les IAs és més negativa.

Una implantació inevitable que cal fer amb compte

Com a conclusió, els investigadors creuen que hi ha una certa por social a que les IAs prenguin decisions ètiques, però creuen que aquesta pot no és intrínseca de cada persona sinó de quina creuen que és l’opinió de la resta de la societat. Així, el biaix contra els models computacionals d’aquest tipus només apareixen quan se’ls pregunta explícitament.

Aquests resultats, creuen els científics, també es poden aplicar a preguntes semblant sobre altres màquines i robots. Tenint en compte la seva presència cada cop més gran, conèixer què en pensen les persones i per què pot resultar molt útil per trobar la millor manera d’introduir-les en alguns àmbits si és que, finalment, es decideix fer-ho.

Més notícies
El satèl·lit Gaia aporta una quantitat increïble de dades que han de ser analitzades per descobrir els secrets de l'univers

Un projecte liderat per la UB desxifrarà els enigmes de la Via Làctia

Galactic RainCloudS ha aconseguit la primera posició al projecte OCRE Cloud Funding per emprar recursos al núvol en astronomia
:  - Mobile
Un programa per crear nous medicaments ha estat emprat per inventar armes bioquímiques perillosíssimes | PEO ACWA

Una eina per crear fàrmacs també pot inventar armes bioquímiques terribles

Uns investigadors descobreixen horroritzats com les seves eines d'intel·ligència artificial poden funcionar al revés
:  - Mobile
Robot de la NASA.

Elon Musk creu que els robots seran un negoci més gran que els cotxes

El fundador de Tesla i SpaceX ha anunciat que intensificarà els seus esforços en aquest camp
:  - Mobile

La UOC analitzarà el transport compartit a Barcelona per optimitzar-lo

La recerca vol millorar la presa de decisions per estalviar energia i temps i millorar la seguretat
:  - Mobile

Nou comentari

Comparteix