El Parlament Europeu debatrà i votarà entre dimarts i dimecres d’aquesta setmana la primera llei d’intel·ligència artificial (IA) del món. La proposta que ha arribat a la cambra de representació comunitària està redactada de manera que classifica i distingeix els usos d’aquesta tecnologia –i no pas la tecnologia en sí– segons el risc que es percep que comporten i, a partir d’aquí, mirarà de regular-los.
Així doncs, i després d’uns quants anys de feina en la redacció de la proposta i d’haver anat veient què n’opinaven alguns experts, finalment aquesta llei arriba al Parlament Europeu en un moment en què sembla que la urgència s’ha disparat tant pels avenços que s’han vist durant els darrers mesos com, també, pels crits d’alerta que s’han fet sentir des d’alguns sectors amb prou coneixement de causa.

La llei podria entrar en vigor aquest mateix any
Si tot va segons els plans, aquest dimarts es debatrà la llei i dimecres es votarà. Si és aprovada es traslladarà al Consell Europeu, on els governs de la UE el tornaran a debatre i, si ho consideren oportú, l’esmenaran, obrint encara un altre període de negociació. Si no hi ha grans problemes, la llei podria entrar en vigor a finals d’aquest mateix any.
La llei europea d’intel·ligència artificial no considera aquesta tecnologia com un risc en sí mateixa sinó que parteix de la idea que se’n poden fer mals usos que poden afectar diversos àmbits. La proposta en distingeix tres –la salut, la seguretat i els drets fonamentals– que requereixen una especial protecció, i per això classifica els usos de la intel·ligència artificial en tres nivells de risc: inacceptable, alt i baix.

Riscos inacceptables que queden prohibits
És a partir d’aquesta classificació que la llei regula els usos prohibint, per exemple, tot allò que es considera ‘inacceptable’, com els sistemes d’identificació biomètrica remota i en temps real dels espais públics, l’exemple més conegut de què seria identificar persones a través de càmeres amb sistemes de reconeixement facial. Fins i tot en aquest cas, però, la llei ja apunta excepcions, sempre amb l’excusa de la seguretat: buscar víctimes, prevenir amenaçes o arrestar sospitosos.
També es prohibeix l’anàlisi de comportaments socials, capacitat econòmica i trets personals dels ciutadans per donar-los una puntuació, una pràctica que es coneix com a ‘social scoring’ i que es considera un risc inacceptable per a la societat per raons que resulten evidents i que han estat mostrats fins i tot a la ficció, per exemple a sèries com ‘Black Mirror’.
La nova llei també vol prohibir la desinformació, amb una redacció on proposa deixar fora de la llei les pràctiques basades en la intel·ligència artificial que tinguin un “gran potencial per manipular les persones amb tècniques subliminals que transcendeixin la seva consciència” o bé que vulguin treure profit de “vulnerabilitats de grups concrets”, posant com a exemple els menors d’edat o les persones amb discapacitat.

Els usos d’alt risc són regulats amb cura
Els usos de la intel·ligència artificial que es considera que tenen un risc alt són regulats amb força cura. Aquí és on han anat a parar les excepcions a la prohibició de la identificació biomètrica però també altres possibles àmbits on es pot fer servir i que els legisladors creuen que cal vigilar pel perill que suposen, com ara la gestió de les infraestructures essencials com les de trànsit o la distribució d’electricitat, aigua i gas.
També es consideren usos d’alt risc els que afecten al món laboral i als sectors de la banca i les finances. Així, les aplicacions que estableixin patrons de contractació o promoció de personal i les que avaluïn els candidats o sol·licitands per a un lloc de treball també queden prohibits per evitar la discriminació, com també fer servir la intel·ligència artificial per avaluar la solvència dels clients dels bancs o per decidir si es concedeix o no una assegurança i a quin preu a una persona. El mateix criteri s’aplica a la gestió de les migracions, especialment en l’aprovació de sol·licituds d’asil o de residència.

Protegir les persones dels possibles impactes de la IA
Finalment, la llei també mira de donar certa protecció a les persones dels impactes dels usos permesos de la IA. Així, per exemple, la transparència és important, i és per això que la proposta faria obligatori informar els usuaris quan un contingut fos generat per un programa i no una persona, tant en el cas de textos com d’àudios, vídeos i imatges que puguin semblar fets per un humà. A més, també caldrà informar de la font de la informació emprada per generar els continguts protegint, així, els drets d’autor i la propietat intel·lectual.