Foto de família dels participants a la primera cimera internacional per la seguretat de la IA (Reuters)

La cursa de les grans potències mundials per regular la IA: què els preocupa i què proposen

Les diferents iniciatives mundials per regular-ne la seguretat es volen avançar a possibles escenaris futurs com ara que les IA es puguin autoreplicar o que actuïn de forma imprevisible
Enllaç a altres textos de l'autor

Toni Noguera Martínez

Periodista del 324.cat especialitzat en tecnologia

@AntoniNoguera
TEMA:
Intel·ligència artificial

Intel·ligència artificial: la setmana passada, el secretari general de l'ONU en crea un nou òrgan assessor. Dilluns, els països més poderosos del món, el G7, n'acorden un codi de conducta. Dimarts, el president dels Estats Units en signa una ordre executiva. Dimecres i dijous, el primer ministre del Regne Unit en celebra la primera cimera internacional amb declaració final inclosa firmada per 28 països, entre els quals el Brasil, la Xina i l'Índia, i s'hi suma la Unió Europea, que ja té molt avançada la seva pròpia legislació.

El món accelera el pas per mirar de posar "barreres de seguretat" al desenvolupament de nous sistemes d'intel·ligència artificial, un procés ja de per si exponencialment --i neguitosament-- ràpid. El repte és fer barreres prou flexibles, generals i eficaces perquè no es quedin obsoletes en un àmbit on tres mesos de diferència canvien els paradigmes.

És una carrera per la regulació, però també una carrera geopolítica. Tots els líders mundials volen ocupar les primeres posicions en desenvolupament i innovació, i també fer veure que prioritzen el benefici de la humanitat, dos objectius no sempre compatibles. A més, ho fan amb aproximacions diferents: algunes de més restrictives, i d'altres de més laxes.

Els esforços reguladors, però, estan trobant un punt en comú: el discurs que els imbueix és més aviat pessimista.


IA: què és el que temen els líders mundials?

"Riscos", "danys", "seguretat", "fiabilitat", "amenaces", "confiança"... el núvol de paraules més habituals en les declaracions, preàmbuls, codis i recomanacions sobre intel·ligència artificial és transparent en el seu esperit fatalista.

Més enllà dels nombrosos problemes i perills que ja es poden comprovar en l'actualitat (biaixos, discriminació, desinformació, continguts falsos completament creïbles, riscos per la privacitat, friccions amb la propietat intel·lectual...), també es contemplen desacomplexadament escenaris més distòpics: models d'IA utilitzats en atacs --i ciberatacs-- terroristes, desenvolupament de noves armes biològiques, la possible autoreplicació de models basats en intel·ligència artificial, models tan avançats que poguessin actuar de forma imprevisible i fora de control...

Totes les iniciatives reguladores reconeixen el potencial negatiu de la intel·ligència artificial (Dado Ruvic/Reuters)

Tots ells reconeixen el "potencial transformador" i els "beneficis enormes per als ciutadans i l'economia" dels models d'intel·ligència artificial, però tot seguit comencen a descriure els possibles escenaris pertorbadors als quals ens podria portar el desenvolupament de nous sistemes algorítmics, cada cop més capaços i potents, per descriure després què cal fer per evitar-los.

Els estils reguladors són diferents. Molts, especialment els que viuen del sector, acusen la Unió Europea de preparar unes normes massa estrictes que frenarien excessivament la innovació. Els Estats Units miren de treure's de sobre l'aura d'oest salvatge on tot hi és permès, mentre que el Regne Unit voldria liderar una posició trobant un punt mitjà, tot i que estan clarament més alineats amb l'estil nord-americà.

Repassem, a continuació, quina és l'aproximació que en fa cada proposta.
 

ONU - Òrgan Assessor d'Alt Nivell en Intel·ligència Artificial

El secretari general de les Nacions Unides, António Guterres, va començar el discurs parlant de l'experiència "surrealista" d'haver-se vist parlant en perfecte xinès en un vídeo fet amb una aplicació d'intel·ligència artificial tot i no conèixer la llengua.

El dijous 26 d'octubre va convocar un òrgan assessor d'alt nivell per "dur a terme anàlisis i avançar en recomanacions per a la governança internacional de la IA" mentre aborda els seus "riscos i incerteses".

"Maximitzar els beneficis [de la IA] per la humanitat i contenir i reduir-ne els riscos".

L'òrgan assessor inclou 38 experts internacionals en diferents disciplines rellevants, entre les quals hi ha la catalana Carme Artigas, secretària d'estat de Digitalització i Intel·ligència Artificial a Espanya, que ocupa una de les dues vicepresidències de l'òrgan.

El seu objectiu és entendre i reduir els reptes i riscos de la IA, compartir diferents perspectives i opcions per dirigir-la cap al "bé comú", fent de pont entre sector privat, governs i societat civil i xarxes de parts interessades per cooperar i governar millor els desenvolupaments en l'àmbit mundial.

"Els danys potencials de la IA van més enllà de les serioses preocupacions per la desinformació, la reafirmació dels biaixos i la discriminació, la vigilància i la invasió de la privadesa, el frau i altres violacions dels drets humans. I sense entrar en una sèrie d'escenaris apocalíptics, ja està clar que l'ús maliciós de la IA podria soscavar la confiança en les institucions, debilitar la cohesió social i amenaçar la mateixa democràcia". António Guterres, secretari general de l'ONU.


G7 - El procés d'IA a Hiroshima

L'anomenat Procés d'IA d'Hiroshima, nascut arran de la darrera cimera del G7 a la ciutat japonesa, ha cristal·litzat aquesta setmana en una declaració i un codi de conducta voluntari, un "document viu" que s'anirà "revisant i actualitzant quan sigui necessari" per mantenir-se reactiu a "aquesta tecnologia de ràpida evolució".

A finals de maig, Rússia els acusava d'organitzar tota la cimera contra ells, i Ucraïna en va ser el centre d'atenció, amb visita de Zelenski inclosa. Però l'agenda del G7 a Hiroshima va tenir temps també d'arribar a un compromís sobre la IA: "Crear un marc normatiu per a les intel·ligències artificials generatives per evitar els riscos que comporta la seva ràpida expansió desregulada".

La declaració dels líders del G7 sobre el procés d'IA d'Hiroshima, publicada aquest dilluns, 30 d'octubre, arrenca amb un reconeixement a les oportunitats i "el potencial transformador dels sistemes avançats d'intel·ligència artificial (IA)", fent menció especial als "models bàsics i la IA generativa".

El Procés d'Hiroshima va desembocar també en un codi de conducta voluntari per dotar de més seguretat els desenvolupaments en IA (Reuters/Kenny Holston)

Per una altra banda, alguns dels àmbits on es demana una atenció especial són els possibles riscos associats a la utilització dels models en el desenvolupament d'armes químiques, biològiques o nuclears, noves estratègies de ciberatacs, la capacitat del model d'autoreplicar-se o que el risc que un esdeveniment porti a una "reacció en cadena amb efectes considerablement negatius que afectessin tota una ciutat".

"Em complau donar la benvinguda als principis rectors internacionals del G7 i al codi de conducta voluntari, que reflecteixen els valors de la UE per promoure una IA fiable. Demano als desenvolupadors d'IA que signin i implementin aquest codi de conducta tan aviat com sigui possible". Ursula von der Leyen, presidenta de la Comissió Europea

 

Aquest és el codi de conducta que va sortir del G7:

La declaració fa una crida a totes les organitzacions que treballen en "sistemes avançats d'IA" per seguir, voluntàriament, el Codi de Conducta Internacional del Procés d'Hiroshima, amb onze principis que volen guiar l'ús, el desenvolupament i el desplegament de models d'IA segurs i fiables.
 

  1. Prendre mesures adequades durant tot el desenvolupament de sistemes avançats d'IA

    S'han d'identificar i mitigar riscos durant tot el cicle de vida de la IA, desenvolupament i desplegament inclosos. Cal implementar mètodes de control diversos, assegurar-se que els sistemes són segurs -o que no suposen riscos poc raonables- i documentar tots els riscos detectats per permetre'n la traçabilitat.

    Una de les mesures de test que proposa el codi de conducta és el Red-teaming, l'atac autoritzat de hackers ètics que simulen una intrusió real en una organització o sistema per detectar-ne les vulnerabilitats. És a dir, deixar-se atacar per entrenar-se.
     
  2. Identificar i mitigar vulnerabilitats, així com abusos, després de la implantació

    Les organitzacions han de monitorar possibles vulnerabilitats i usos incorrectes dels models basats en intel·ligència artificial, i informar-ne de totes i prendre accions apropiades quan es detectin.

    Un dels mecanismes recomanats per fer-ho és ajudar-se de terceres empreses i recompensant als usuaris i organitzacions que en descobreixin.
     
  3. Informar públicament sobre les capacitats i limitacions de la IA

    S'ha d'incrementar la transparència publicant informes que detallin els possibles riscos i limitacions dels sistemes d'IA, els detectats i els contemplats, així com els seus usos correctes i incorrectes, el que n'augmentaria el control públic i en dirimiria responsabilitats.
     
  4. Promoure la compartició d'informació responsable entre organitzacions desenvolupadores

    Cal compartir informació sobre riscos, estàndards i millors pràctiques per assegurar la seguretat i fiabilitat de la IA. En resum, augmentar la transparència entre les organitzacions "protegint els drets a la propietat intel·lectual".
     
  5. Implementar polítiques de gestió de riscos

    Les organitzacions haurien de desenvolupar, fer públics i establir mecanismes per identificar i gestionar riscos, incloent-hi polítiques de privacitat i altres mesures de mitigació, allà on sigui possible durant tot el cicle de vida dels sistemes d'IA: concepció, desenvolupament, llançament, manteniment...
     
  6. Implementar controls de seguretat robustos

    Inclou la protecció de models, algoritmes, servidors i conjunts de dades, així com la detecció de possibles amenaces internes, tant en la seguretat física com en l'àmbit de la ciberseguretat.
     
  7. Mecanismes d'autenticació de contingut

    Desenvolupar i desplegar mecanismes per permetre als usuaris identificar contingut generat per IA, mencionant quan sigui possible el model o el servei exacte que ha generat cada peça de contingut amb mecanismes com marques d'aigua o advertències.
     
  8. Prioritzar la recerca per mitigar riscos

    Les empreses han de donar importància i invertir en la investigació en seguretat, confiança i mitigació de riscos d'IA, i són convidats a compartir aquesta recerca i les recomanacions que se'n derivin.
     
  9. Desenvolupar IA per abordar els grans desafiaments globals

    Per tal de donar suport al progrés en els Objectius de Desenvolupament Sostenible de l'ONU i potenciar el desenvolupament d'IA amb beneficis globals, que posi l'ésser humà en el centre, les organitzacions haurien de prioritzar el desenvolupament d'IA per abordar desafiaments com la crisi climàtica, la salut global i l'educació.
     
  10. Promoure estàndards tècnics internacionals

    Les organitzacions haurien de contribuir al desenvolupament i adopció d'estàndards i millors pràctiques internacionals per a la IA que facilitin l'intercanvi tecnològic i la interoperabilitat, especialment pels mecanismes que facilitin la identificació del contingut generat artificialment per part dels ciutadans de tot el món.
     
  11. Implementar mesures adequades per a la protecció de dades i la privacitat

    Cal gestionar mesures per la qualitat de les dades d'entrenament dels sistemes d'IA, per limitar-ne els biaxios, i desenvolupar tècniques d'entrenament i correcció que protegeixin les dades personals i respectin els drets a la propietat intel·lectual.


Estats Units - Ordre executiva sobre IA segura i fiable

La intel·ligència artificial té "un potencial extraordinari tant per les seves promeses com per als perills". L'ordre executiva del president nord-americà, Joe Biden, que va firmar aquest dimarts, 31 d'octubre, comença reconeixent que aquesta tecnologia fa que el món "sigui més pròsper, productiu, innovador i segur", però adverteix sobre el seu l'ús irresponsable.

Des dels perills clàssics, reconeguts per tots (discriminació, frau, biaixos, desinformació...), fins a incloure-hi el perill que "desplaci i desempoderi els treballadors i sufoqui la competència", als relacionats amb la biotecnologia, la ciberseguretat, la infraestructura crítica i el que més acostuma a remoure la societat nord-americana, "la seguretat nacional".

"La ràpida velocitat amb què les capacitats d'IA avancen obliga els Estats Units a liderar en aquest moment pel bé de la nostra seguretat, economia i societat".

L'ordre executiva parla de la "supervisió" dels models posteriors al seu desplegament per assegurar que són resilients i "funcionin segons el previst, siguin resistents a l'ús indegut o modificacions perilloses, es desenvolupin èticament i funcionin de manera segura i compleixin les lleis i polítiques federals aplicables".


"Quan dimonis vaig dir això?"

L'ordre executiva federal també menciona el correcte etiquetatge dels continguts generats artificialment. El president Biden, tal com confessava António Guterres, ha quedat molt sorprès amb vídeos seus fets amb intel·ligència artificial, per exemple amb tècniques deepfake.

"Amb només tres segons de la teva veu poden enganyar... no només a la teva família sinó a tu mateix, i poden utilitzar-ho per enganyar les persones que estimes. Tothom hauria de ser capaç de saber si l'àudio que escolten o el vídeo que veuen ha estat generat o alterat per una intel·ligència artificial. Gràcies a aquesta ordre, el departament de comerç ajudarà a crear estàndards per marcar i etiquetar correctament el contingut generat per una intel·ligència artificial. Així podràs saber si és real o no."

Els Estats Units, que ja lideren en innovació i mercat, volen liderar també en termes de regulació, i asseguren que treballaran amb aliats i socis a l'estranger. De fet, reconeixen la resta d'iniciatives i expliquen que l'ordre executiva dona suport i complementa "el lideratge del Japó del Procés d'Hiroshima del G-7, la Cimera del Regne Unit sobre la seguretat de la IA, el lideratge de l'Índia com a president de l'Associació Global sobre IA i les discussions en curs a les Nacions Unides", tot i que no menciona el procés regulatori que enllesteix la Unió Europea.

El govern federal dels Estats Units posa, doncs, les bases per començar a acotar la normativa d'un sector profundament desregulat, especialment necessari ara que s'estan desenvolupant models cada cop més potents i potencialment perillosos.

L'ordre executiva de Joe Biden, però, exigeix les noves mesures de seguretat només per als models que superin un determinat llindar de potència. Actualment, cap model, ni tan sols els més potents coneguts fins ara, supera aquest llindar.

La norma obligaria models d'aprenentatge automàtic futurs, molt més potents, a estar en diàleg constant i, en certa manera, monitorats pel govern, per assegurar que no puguin ser utilitzats de forma perillosa.

Un canvi important en un país que, de nou, continuarà sent el que té la regulació més permissiva per a les seves empreses. Moltes insisteixen des de fa mesos a ser regulades, i, finalment, ho seran. Com que han pres la iniciativa, de fet, gran part de la normativa es basarà en els seus propis termes i condicions.

Regne Unit - Cimera per la seguretat de la IA

La primera cimera internacional sobre la intel·ligència artificial s'ha fet aquest dimecres i dijous, 1 i 2 de novembre, a Bletchley Park, un escenari icònic per a la computació informàtica. Les intencions geopolítiques del primer ministre britànic, Rishi Sunak, han quedat clares: vol posicionar el Regne Unit com un líder regulador més amigable per a les empreses i start-ups, un contrapès a la Unió Europea que li doni més pes com a pol atractiu per a empreses i talent en intel·ligència artificial.

"Si ho fem malament, la IA podria facilitar la construcció d'armes químiques o biològiques, els grups terroristes podrien utilitzar la IA per propagar la por i la destrucció a una escala encara més gran. Els delinqüents podrien explotar la IA per portar a terme atacs cibernètics, desinformació, frau o, fins i tot, abús sexual infantil."

Tot i que Rishi Sunak no ha trobat resposta en presència de líders internacionals (els mateixos Estats Units hi van enviar la vicepresidenta, Kamala Harris), els dos grans èxits de la cimera han estat comptar amb un dels grans vocals sobre els riscos "existencials per a la humanitat", el propietari de Twitter i fundador de Tesla i SpaceX, Elon Musk; i la inclusió de la Xina en una declaració de principis pel desenvolupament segur de la intel·ligència artificial. Musk ha destacat:

"No som més forts ni més ràpids que altres criatures, però som més intel·ligents. I aquí estem, per primera vegada realment a la història de la humanitat, amb alguna cosa que serà molt més intel·ligent que nosaltres."

Rishi Sunak i Elon Musk van demostrar una gran sintonia (Kirsty Wigglesworth/Reuters)


La declaració de Bletchley Park

De nou, ens trobem amb una declaració de principis que reconeix les "enormes possibilitats" de la IA per millorar el "benestar dels humans, la pau i la prosperitat", la necessitat de posar l'ésser humà en el centre de les decisions de disseny, desenvolupament i desplegament dels sistemes segurs i fiables.

Els riscos del desenvolupament de la IA que reconeix la declaració inclouen els mencionats en fòrums anteriors, però s'atura especialment en els riscos de la IA "frontera", és a dir, "aquells models d'IA de propòsit general altament capaços".

També s'hi parla de possibles "danys greus, fins i tot catastròfics", donada la gran velocitat de canvis ràpids i incerts en el camp de la intel·ligència artificial, fet que obliga els països a aprofundir en la "comprensió d'aquests riscos potencials i de les accions per abordar-los", sustentats en una necessària cooperació internacional.

Rishi Sunak, reunit amb el secretari general de l'ONU, António Guterres, durant la cimera a Bletchley Park (Reuters)

Es mencionen els riscos substancials per a un ús malintencionat d'aquests models o dels "problemes de control" que podrien fer que aquests models actuessin de forma "no alineada amb la intenció humana". En poques paraules, el problema conegut com "IAs rebels": sistemes tan avançats que actuen més enllà del que estaven programats per fer, amb conseqüències imprevisibles per la seva naturalesa desconeguda, especialment en camps com la ciberseguretat o la biotecnologia.

La declaració de Bletchley Park també dona la responsabilitat de garantir la seguretat dels sistemes d'IA als seus desenvolupadors, "en particular aquells sistemes d'IA que són inusualment potents i potencialment nocius".

L'agenda que marca la declaració inclou dos punts en els quals, remarquen, cal centrar-se: identificar i compartir els riscos de seguretat de la IA i construir polítiques per garantir la seguretat als respectius països, col·laborant i reclamant més transparència "als actors privats que desenvolupen capacitats d'IA de frontera".

De fet, Sunak va anunciar dijous que alguns d'aquests actors havien acordat a la cimera donar accés anticipat als seus models perquè els diferents governs poguessin dur a terme avaluacions de seguretat. Uns mesos enrere ja va anunciar que Anthropic, OpenAI i Google DeepMind donarien un accés similar a la seva tecnologia al Regne Unit.

Representants de 28 països i la Unió Europea han donat suport a la declaració, entre els quals es troben Espanya, Ucraïna, la Xina, Austràlia, Ruanda, Nigèria, Turquia, els Emirats Àrabs Units, l'Índia, les Filipines, el Canadà, el Brasil, el Japó, Kenya, l'Aràbia Saudita, Israel o Xile.

Tots ells, acaba dient la declaració, esperen retrobar-se el 2024, però no hi ha gaires esperances que sàpiguen, avui dia, què els depararà tot un any d'innovacions i avenços en un camp que, com a mínim, provoca vertigen.

 

 

ARXIVAT A:
Estats Units Regne Unit ONU Intel·ligència artificial Unió Europea Xina
El més llegit
AVUI ÉS NOTÍCIA
Anar al contingut