Europa vol limitar l’ús de la intel·ligència artificial per protegir la societat

La proposta de regulació prohibeix el reconeixement facial per "seguretat" i els algorismes que puguin manipular el comportament de les persones

Una filtració de la proposta de legislació europea sobre intel·ligència artificial, publicada a ‘POLITICO’, ha posat damunt la taula el problema del que es consideren “IAs d’alt risc”. La proposta de la UE, que encara no ha estat publicada oficialment, inclou la prohibició de sistemes de reconeixement facial per fer el seguiment de persones o els algorismes que puguin manipular el comportament humà, entre d’altres, i això inclou tant sistemes que fan servir alguns cossos de policia com els que fan empren algunes empreses per seleccionar el seu personal. En aquesta proposta, però, s’exclouen tant les IAs d’ús militar com les que fan servir les autoritats per garantir la “seguretat pública”, un terme prou genèric i que ja ha generat polèmica.

De fet, les recomanacions que inclou el document filtrat, que es farà públic la setmana vinent, són prohibir els sistemes d’intel·ligència artificial que “manipulin el comportament, les opinions o les decisions en perjudici de les persones”, una definició molt laxa i difícil de concretar; però també els que es facin servir per calcular puntuacions socials –reputació 2.0–, els que facin servir informació o càlculs sobre una o diverses persones per atacar els seus punts febles i, finalment, els que serveixin per organitzar un sistema de vigilància generalitzat i indiscriminat de la població. Cada estat hauria de crear institucions d’inspecció i certificació d’aquests sistemes i establir multes de fins al 4% dels seus beneficis totals per a les empreses que incomplissin la regulació.

Tot i que, com han apuntat diversos experts, les definicions de la proposta filtrada no són prou específiques i potser caldria treballar-les més, entre les intel·ligències artificials considerades d’alt risc hi ha sistemes amb funcions tan diferents com l’avaluació de la situació bancària, social i personal d’un individu a l’hora de concedir-li un préstec, la preselecció de candidats a un lloc de treball, la priorització del nivell d’emergència a l’hora d’enviar ambulàncies o, i encara que sembli ciència-ficció, la predicció de crims. A més, la Comissió Europea també proposa que aquestes IAs d’alt risc tinguin obligatòriament un interruptor de seguretat que les pugui apagar a l’instant si és necessari. Una altre punt destacable de la proposta és que l’ús de deepfakes –manipulació d’imatges de persones reals– haurà de ser reconegut per qui en sigui responsable, per eliminar la possibilitat de confusió.

En un moment on les IAs i els algorismes ja condicionen moltíssims aspectes de les nostres vides, tant si en som conscients com si no, la Comissió Europea està mirant de regular el seu ús per assegurar-se que es fa servir per millorar la vida de les persones, no per manipular-les ni controlar-les, en un esforç que ha estat criticat però que tenia la intenció de frenar, per exemple, les companyies que fan servir les IAs per manipular els seus usuaris perquè prenguin unes decisions o facin unes compres determinades. Tot i això només és un esborrany i, un cop es faci públic, començarà el debat per donar-li una forma definitiva, en un procés que encara pot trigar anys a acabar-se.

Nou comentari