Com s'ha de regular la intel·ligència artificial com ChatGPT: els escenaris a Europa
Analitzem amb dos experts els riscos de la intel·ligència artificial i del desplegament del ChatGPT sense que el seu ús hagi estat regulat prèviament
La tecnologia d'intel·ligència artificial ha obert molts dubtes sobre la privacitat i la protecció de dades. Com sol passar, la tecnologia ha anat més de pressa que la regulació. Per això, davant la irrupció d'aplicacions com ChatGPT, alguns països ja han començat a prendre mesures dràstiques.
El cas més conegut és el d'Itàlia, que directament es planteja prohibir-la emparant-se en la protecció de dades. Les autoritats asseguren que ChatGPT incompleix el Reglament general de protecció de dades de la Unió Europea, pels dubtes sobre com tracta les dades personals i perquè no verifica l'edat dels usuaris.
La mesura sembla difícil de fer complir en el món d'internet, però que ha posat tothom en alerta.
Espanya, ara per ara, no es planteja prohibir-lo, però ja està treballant en la creació de l'Agència Espanyola d'Intel·ligència Artificial. Tindrà seu a la Corunya i s'encarregarà de definir un marc regulador per a les empreses que utilitzin aquesta tecnologia.
Espanya s'anticiparà així al requisit que, previsiblement, inclourà la llei europea d'intel·ligència artificial, encara en procés d'elaboració.
Què s'ha de fer amb ChatGPT?
Ramon López de Mántaras és professor emèrit de l'Institut d'Investigació en Intel·ligència Artificial i entén la decisió que ha pres a Itàlia: "Prohibir hauria de ser l'últim recurs que fas, però en aquest context en què estem ara penso que Itàlia no s'ha equivocat prohibint".
"Tenen arguments legals ben sòlids per fer el que han fet i esperem que altres països segueixin el seu exemple."
López de Mántaras explica per què Itàlia ha fet el pas: "Tot el que la gent posi a internet pot ser susceptible que l'empresa Open AI ho utilitzi per entrenar aquests sistemes d'intel·ligència artificial".
L'expert en intel·ligència artificial critica la falta "absoluta" de transparència de l'empresa que hi ha darrer de ChatGPT, Open AI: "Se'ls ha demanat moltes vegades d'on treuen les dades i no ho diuen".
Si li preguntem aquesta qüestió directament al ChatGPT, descriu els correus electrònics com una de les seves fonts d'informació. Però si li preguntem directament si consulta correus, nega tenir accés a informació confidencial. Quan li indiquem la contradicció en les respostes, es disculpa amablement per la confusió.
Al servei de la mentida?
"És tan fina que aconsegueix enamorar-nos." Així defineix la tecnologia darrera de ChatGPT Joan Manuel del Pozo, professor emèrit de filosofia de la Universitat de Girona:
"És una tecnologia que ens guanya per seducció. No ens altera la vida de manera impositiva, caòtica i violenta, si no que sedueix les nostres ments."
El perill d'aquesta tecnologia és que pugui arribar a enganyar amb una finíssima elegància de semblança a la veritat.
La mateixa màquina ha reconegut que no està al servei de la veritat, sinó al servei de la plausibilitat. "Pot dir 80% de veritat i 20% de falsedat, el que passa que no saps quin és el 20% fals", apunta Del Pozo.
"La confusió entre veritat i falsedat, generat falsedat general. Perquè si no saps què és veritat i què és fals, tot és fals."
Per això, alguns experts qualfiquen d'experiment la manera en què ChatGPT s'ha llançat fins ara a tot el món, convertint els milions d'usuaris, moguts per la curiositat, en entrenadors del programa. Fent-lo, a base de prova i error, cada vegada més sofisticat.
Ramon López de Mántaras recorda que la desinformació polaritza i posa en perill la societat i fins i tot la democràcia. Demana que s'analitzi abans de llençar una tecnologia com aquesta al gran públic: "No es pot desplegar i després anar corregint i anar posant pedaços".
Malgrat les crítiques, Joan Manuel del Pozo no és partidari de prohibir-la. "L'ideal no és frenar o prohibir, sinó orientar", afirma.
Argumenta, a més, que una prohibició és complicat de fer complir: "És una mica com posar portes al camp. És una tecnologia tan potent i tan estesa en el món i tanta competitivitat entre ells que és molt difícil poder frenar-ho".
Els 4 escenaris que planteja la Unió Europea
En l'àmbit europeu, la Comissió va presentar fa dos anys --quan encara no s'havia estès el ChatGPT-- una proposta per regular la intel·ligència artificial, però encara no s'ha fet efectiva.
La idea és establir obligacions i restriccions per protegir els usuaris amb quatre escenaris.
1. L'escenari més estricte és la prohibició. Inclou les aplicacions que suposen una violació dels drets fonamentals. Per exemple, els sistemes de vigilància massiva que utilitza la Xina.
2. Una altra categoria es refereix a les aplicacions qualificades d'"alt risc", que han de complir unes obligacions molt estrictes abans de posar-se al mercat. És el cas, per exemple, de les aplicacions mèdiques.
3. En canvi, quan el risc es considera limitat --com els "chats-bots"-- la condició és la transparència. Cal recordar a l'usuari que interactua amb una màquina i deixar clar d'on s'obté la informació.
4. Però, en la gran majoria d'aplicacions d'intel·ligència artificial, com els videojocs, no hi ha restriccions perquè es considera que pràcticament no tenen cap risc.
Està previst que el Parlament Europeu la voti a finals d'abril, però podria trigar encara dos anys en aplicar-se.
- ARXIVAT A:
- TecnologiaIntel·ligència artificial