La primera llei d'intel·ligència artificial del món arriba al ple del Parlament Europeu

La llei estableix tres categories que suposin un risc --inacceptable, alt i baix o mínim-- i regula més els usos de la IA que no la tecnologia en si
Actualitzat
TEMA:
Intel·ligència artificial

Fa quatre anys, com a mínim, que el Parlament Europeu parla de la intel·ligència artificial i la necessitat de regular-la. I aquest dimarts, finalment, els legisladors de la UE han debatut una proposta de llei que votaran aquest dimecres i que han titulat tan senzillament com "llei d'intel·ligència artificial (IA)"

Probablement, el més fàcil ha estat triar el nom, perquè el debat en comissió parlamentària per tenir un text legislatiu sòlid no ha estat bufar i fer ampolles. Sobretot, quan amb la feina embastada irrompia a escena ChatGPT. Era l'exemple que la intel·ligència artificial era tan increïble com preocupant.

"Tothom està preocupat, però preocupació no ha de voler dir pànic, o pensar que s'acabarà la humanitat. No estem en aquest punt, però per mitigar el risc necessitem normes." Ens ho explicava en una entrevista al 324.cat el ponent de la llei d'intel·ligència artificial, Dragos Tudorache, que situava la filosofia de la llei al voltant de regular l'ús de la IA.

 "No es tracta de regular la tecnologia per se, perquè la tecnologia és innocent, el tema és quin ús se'n fa."


Regular els usos i no la tecnologia en si mateixa

El gran objectiu de la llei d'IA és identificar els riscos derivats d'un ús pervers de la tecnologia i que poden afectar tres àmbits essencials als quals es refereix la llei, com són la salut, la seguretat i els drets fonamentals de les persones. Són tres àmbits, sobretot el dels drets fonamentals, que per Tudorache fan singular la legilslació europea respecte d'altres models de relació amb la intel·ligència artificial.

Els drets i llibertats dels nostres ciutadans no només han de ser respectats. Se'ls ha de protegir de les amenaces. No volem vigilància massiva. No volem que es facin patrons de comportament. No volem anàlisis predictives. Això és el que fa la Xina.

La Xina ha estat un protegonstia recurrent en el debat al Parlament Europeu per defensar les viruts de la proposta en confrontació amb Pequín. En aquesta línia, la vicepresidenta de la Comissió Europea i comissària de l'Era Digital, Margaret Vestager, ha posat l'accent en la necessitat de generar confiança en l'ús de les eines d'IA. "Això va de crear confiança. El Parlament pot crear aquesta confiança i garanties legals."

No totes les aplicacions d'intel·ligència artificial comporten riscos o, com a mínim, el mateix nivell de risc. Per això la llei estableix tres categories que suposin, de més a menys, un risc: inacceptable, alt i baix o mínim.

El que es considera inacceptable queda prohibit i, en aquest sentit, la llei d'IA prohibirà l'ús de sistemes d'identificació biomètrica remota i en temps real en espais públics. És a dir, identificar les persones a través de càmeres de reconeixement facial, per exemple.

Ara bé, hi ha excepcions: es permetrà aquesta pràctica quan es pretengui buscar víctimes d'un delicte, prevenir una amenaça (terrorista, posem per cas), o detenir, localitzar, identificar o jutjar un sospitós d'haver comès un delicte.

Les excepcions en la utilització de la identificació biomètrica preocupen alguns membres del Parlament Europeu. Durant el debat s'han sentit veus que reclamen més ambició en aquest sentit i no deixar, ni que sigui una mica, la porta oberta a poder indentificar persones al carrer encara que sigui amb ordre judicial. 

L'eurodiputat socialista Petar Vitanov, advertia que "hi ha algunes esmenes sobre la identificació biomètreica que amenacen tot allò acordat al comitè de Llibertats del Parlament fins al punt que la prohibició deixa de tenir sentit. "

També queda prohibit el "social scoring", que consisteix a analitzar el comportament social, l'estatus econòmic o les característiques personals dels ciutadans per classificar-los.

La seu del Parlament Europeu a Estrasburg (Europa Press)

Queda prohibida, en la mesura del possible, la desinformació. La llei s'hi refereix d'aquesta manera: "Es prohibeixen aquelles pràctiques que tenen un gran potencial per manipular les persones amb tècniques subliminals que transcendeixin la seva consciència o que aprofiten les vulnerabilitats de grups concrets com menors o persones amb discapacitat".
 

La intel·ligència artificial de risc alt

La categoria a què més paràgrafs dedica la llei d'IA és la dels usos de la tecnologia que comportin un risc alt. I aquí s'hi inclouen les excepcions de la identificació biomètrica, però també aplicacions de gestió i funcionament d'infraestructures essencials, com ara les xarxes de trànsit, les d'aigua, gas o electricitat.

En l'àmbit laboral, aquelles aplicacions que permetin establir patrons a l'hora de contractar o promocionar personal, o fins i tot a l'hora d'anunciar ofertes de feina o filtrar sol·licituds i avaluar els candidats a un determinat lloc de treball.

Qui ha fet notar aquest perill en l'àmbit laboral ha estat l'eurodiputada de l'Esquerra, Katerina Konecna, que diu que "el text desgraciadament no és sprou ambiciós i a l'hora de avaluar l'accés  a la formació. A més, l'avaluació dels treballadors implica molts riscos i aquests àmbits no es categoritzen com a àmbits de risc. Aquí no es regula prou."

En l'àmbit bancari o al sector de les assegurances es consideren d'alt risc aquells programaris d'IA que permeten avaluar la solvència dels possibles clients o classificar-los en funció de la seva qualificació creditícia. 

La gestió de la migració també té un apartat en la categoria d'aplicacions d'alt risc, pensant sobretot en aquelles que permeten examinar sol·licituds d'asil o permisos de residència. 


Aspectes que podrien millorar

Alguns experts apunten que hi ha aspectes a millorar a la llei. Preocupa especialment l'article 6 perquè podria no blindar prou la definició d'alt risc i aplanar el camí perquè algunes aplicacions s'escapoleixin d'aquesta categorització o de l'obligatorietat que pretén impregnar la llei.

En un article al 324.cat, la fundadora d'Xnet, Simona Levi, feia la següent reflexió: "El plantejament a escala europea, en comparació amb altres plantejaments d'altres àrees i fins i tot en comparació amb altres polítiques proposades per la Unió Europea, preveu uns millors estàndards per a la protecció dels drets humans i llibertats fonamentals, sempre que s'aconsegueixi eliminar l'addenda de l'article 6 que transformaria la legislació en una simple recomanació d'autocompliment i no obligatòria."

40 empreses tecnològiques han signat un acord de bones pràctiques amb la UE (Reuters/Dado Ruvi)

Com queda la qüestió de la transparència 

La llei d'intel·ligència artificial neix amb la convicció que no es tracta de prohibir la IA empesos per una preocupació irracional davant els riscos que comporta.

Els legisladors són conscients que es tracta d'un progrés tecnològic amb moltes virtuts i possibilitats de fer la vida més fàcil als ciutadans, però també saben que "si cau en males mans, pot comportar conseqüències desastroses", explicava Tudorache.

Per això es fa especial atenció a la transparència com una condició que tant sí com no han d'oferir les aplicacions d'IA. S'obliga a informar els usuaris que aquell contingut és generat per un robot i no per una persona. I això val tant per a textos com quan un sistema d'IA s'utilitzi per generar o manipular imatges, àudios o vídeos que a simple vista semblin un contingut autèntic.

Transparència també per informar d'on prové la informació que s'ha fet servir per crear els continguts. Això buscaria protegir els drets d'autor i la propietat intel·lectual. Però també busca protegir els ciutadans dels biaixos que es puguin produir intencionadament o no darrere la generació de continguts. 
 

Quan podria entrar en vigor?

El debat aquest dimarts al Parlament Europeu i la votació dimecres arriben després de l'aprovació del text en comissió. Si prospera acabarà sent una llum verda molt intensa perquè la llei acabi entrant en vigor, però això no serà immediatament.

Un cop s'obtingui el vistiplau dels europarlamentaris, el text es traslladarà al Consell Europeu, on els representants dels 27 governs de la Unió Europea tornaran a debatre el text i, si cal, proposaran més esmenes. S'obriria doncs un altre període de negociació i passaria durant la presidència espanyola del Consell Europeu, que va del juliol al desembre.

De tota manera, la seva posada en pràcitca encara va per llarg. El comissarii de Mercat Interior, Thierri Breton, ha avançat en la seva intervenció al debat, que el text no entrarà en vigor fins el 2026..

ARXIVAT A:
Intel·ligència artificial Parlament Europeu
VÍDEOS RELACIONATS
El més llegit
AVUI ÉS NOTÍCIA
Anar al contingut