Eines que enverinen la IA per lluitar contra els seus abusos: els artistes passen a l'atac
Arriben a un web, en descarreguen el contingut sense permís, "n'aprenen" tot el que poden i marxen sense donar les gràcies ni deixar propina. Però els creadors de contingut ja n'han tingut prou, dels abusos de la intel·ligència artificial de generació d'imatges.
El sector dels artistes ha passat a l'atac per primera vegada amb Nightshade i Kin.art, dues eines presentades en poc més d'una setmana per "protegir els artistes contra la IA invasiva".
El primer, Nightshade, és un projecte liderat pel professor Ben Zhao de la Universitat de Chicago i ja està disponible per a la descàrrega.
El segon, que s'ha llançat aquest dimecres, forma part d'un dels serveis que ofereix la plataforma per a artistes Kin.art i es tracta d'una "solució que protegeix proactivament les creacions de l'entrenament no autoritzat en IA abans que l'obra d'art s'introdueixi en un conjunt de dades".
Com funciona Nightshade?
El que fa Nightshade, desenvolupada per investigadors de la mateixa universitat en col·laboració amb desenes d'artistes, és "enverinar" les imatges dels creadors per tal que els models d'IA que les utilitzin sense permís per entrenar-se en surtin afectats.
Les imatges que passen per Nightshade es converteixen en "verí". En el context del món de l'aprenentatge automàtic, això significa que "els models que s'entrenen amb elles sense consentiment veuran que aquests models aprendran comportaments imprevisibles que s'allunyen del que s'espera d'ells", expliquen els responsables del projecte.
Nightshade fa canvis subtils als píxels d'una imatge, de manera que passen desapercebuts per l'ull humà però enganya els models perquè pensin que la imatge representa una cosa diferent del que és en realitat.
Un model enverinat per una imatge que ha passat per l'eina perdrà precisió. Per exemple, una IA "enverinada" veuria la imatge d'un gat caminant per un passadís i la categoritzaria com la d'un gos volant per l'aire.
L'objectiu de "Nightshade", asseguren, no és "trencar models", sinó "augmentar el cost" de l'entrenament que facin els desenvolupadors de models d'IA amb dades per les quals no han pagat o demanat llicència.
Així, volen que pagar pel seu ús als seus creadors, "la llicència d'imatges", es converteixi en "una alternativa viable".
Els mateixos responsables havien desenvolupat fa uns mesos Glaze, una eina "defensiva" que impedeix que un model d'aprenentatge automàtic imiti l'estil d'un artista en concret.
Aviat, prometen, desenvoluparan una eina conjunta que uneixi les capacitats de Glaze i de Nightshade.
La imitació d'estils d'un artista va ser una de les motivacions d'autores com Kelly McKernan per impulsar una denúncia conjunta contra Stable Diffusion:
Kin.art, segmentar i confondre
La segona eina, Kin.art, opta per dues manipulacions, també invisibles als ulls de les persones: segmenta les imatges i en canvia les metadades, de manera que parts de la imatge passen desapercebudes o són etiquetades equivocadament. Aleshores, la interpretació que en fa el model de generació que s'hi entrena esdevé errònia o incompleta.
"Si podem afectar la imatge o l'etiqueta associada a una obra d'art determinada, podem evitar que s'insereixi correctament a un conjunt de dades", diu Flor Ronsmans De Vry, cap tècnic de Kin.art
La defensa dels drets d'autor davant les IA
Els desenvolupadors de models d'intel·ligència artificial estan en l'ull de l'huracà per la seva manera d'entrenar-los: obscura, invasiva i sense mostrar cap mena de consideració pels autors originals de les obres utilitzades en el procés.
Ramon López de Mántaras, professor emèrit de l'Institut d'Investigació en Intel·ligència Artificial, explicava a 3Cat a l'abril que "tot el que la gent posi a internet pot ser susceptible que l'empresa OpenAI ho utilitzi per entrenar aquests sistemes d'intel·ligència artificial".
El mateix s'aplica a qualsevol altre gran model d'IA per generar continguts avui en dia. Aquesta classe de sistemes basats en aprenentatge automàtic adquireixen noves capacitats i coneixements a partir de quantitats ingents de continguts que hi ha disponibles en línia i no recompensen la feina dels seus creadors originals, humans i empreses.
Hi ha una onada de denúncies i processos judicials oberts contra empreses com OpenAI i Stable Diffusion, com el del New York Times i el sector de guionistes, escriptors, fotògrafs, il·lustradors i altres artistes, que demanden una compensació a qui utilitza la seva feina per entrenar models d'IA.
Les empreses que entrenen grans models d'IA no acostumen a atribuir l'autoria dels continguts amb què els entrenen i, habitualment, ni tan sols informen d'on els han extret, tot i que n'hi ha sospites i les denúncies arriben amb proves difícils de rebatre:
Què es pot fer?
El problema és tan recent que la llei no preveu aquests casos i els jutges encara tenen molts dubtes sobre quina és la legislació que hauria de protegir l'obra dels creadors de continguts de sistemes automatitzats que en compilen les característiques, si és que n'hi ha cap. No sembla que la solució sigui evident.
Fa dues setmanes, Sam Altman, el màxim dirigent d'OpenAI, va admetre que ChatGPT no hauria estat possible sense l'accés als continguts de la xarxa amb copyright.
És a dir, va admetre que el vessant de negoci d'OpenAI es basa en continguts d'altres, una pràctica, al capdavall, habitual en les plataformes tecnològiques (YouTube, X/Twitter, Facebook, Instagram...), però mai a escala tan massiva, automatitzada i sense una autorització expressada en els seus termes i condicions d'ús.
El problema dels drets d'autor en les obres utilitzades per entrenar sistemes d'IA haurà de contemplar-se en les noves regulacions que dictin institucions públiques com la Unió Europea, abans que s'imposin les que estan dissenyant els mateixos que han alimentat indiscriminadament els seus models amb els continguts penjats a la xarxa.
- ARXIVAT A:
- Tecnologia Intel·ligència artificial