La guerra de propaganda i desinformació contínua a Ucraïna i Rússia ha fet un pas més les darreres hores. A diverses xarxes hem pogut veure un vídeo que, davant la sorpresa dels espectadors russòfons, mostrava el president ucraïnès, Volodímir Zelenski, demanant a les seves tropes que entreguessin les armes. Just saw the deepfaked video of Zelensky, it's on the up slope out of the uncanny valley but it has a bit to go. pic.twitter.com/DzcJvWOoIm OSINTtechnical (@Osinttechnical) March 17, 2022 Twitter s'ha afanyat a retirar aquest vídeo que dura un minut i que diu, literalment, el següent: "Estimats conciutadans, estimats defensors, ser president ha resultat més difícil del que semblava. A l'inici, la meva intenció era recuperar el Donbass però ara he pres la decisió difícil de renunciar-hi. I he pres una decisió encara més difícil: vull dir-vos adeu i us convido a deposar les armes i a tornar amb les vostres famílies, perquè en aquesta guerra no val la pena morir-hi. Vull que visqueu i que torneu amb les vostres famílies." Segons la cadena Ukraine24, l'emissió de la cadena va ser hackejada i aquest vídeo s'hauria emès en directe. En el seu Facebook s'hi pot llegir: "L'emissió d'Ukraine24 i del web Today han estat hackejades per l'enemic i s'ha emès un missatge de la suposada capitulació de Zelenski. Això és FALS!" En qualsevol cas, poques hores després de l'aparició del vídeo, el mateix president Zelenski feia una altra declaració desmentint el que, suposadament, ell mateix havia dit. ("Fets o fakes" / Catalunya Ràdio) En aquest cas, el missatge del vídeo fals de Zelenski pot semblar versemblant d'entrada però ràpidament, si el situes en el context real, és fàcil adonar-te que suposa un canvi de postura tan brusc que resulta poc creïble. A banda, l'accent i la veu de Zelenski són clarament diferents i, encara que el moviment de llavis està prou aconseguit, la separació entre el cap i la resta del cos del president ucraïnès deixa molt clar que es tracta d'una manipulació. Dit això, és evident que en un context com l'actual a Ucraïna, aquest vídeo pot haver contribuït a confondre l'opinió pública en un moment tan delicat com és una guerra i en unes circumstàncies tan difícils en les quals el president ucraïnès s'ha erigit en el símbol de la resistència del seu país davant la invasió russa. És per això que la propaganda enemiga ataca en aquest punt, per mirar de desmoralitzar els ciutadans ucraïnesos. Què són els deepfakes? El deepfake és una tècnica basada en la intel·ligència artificial que aprofita imatges reals de la cara de les persones per recrear vídeos en els quals fer que aquella persona digui quelcom que no ha dit. Gràcies a una gran capacitat de computació, es pot recollir infinitat d'imatges dels rostres i, combinant-les i utilitzant softwares especials, fer-les moure per donar aparença real. Segons Carles Ventura, professor d'estudis d'Informàtica, Multimèdia i Telecomunicació de la UOC, els recursos necessaris no són gaire sofisticats: "Requereix un ordinador amb molta memòria RAM i una mica més de capacitat que un PC normal i corrent. El que sí que és necessari i menys fàcil que ho tingui qualsevol són targetes gràfiques GPU (Graphic Processing Unit) pel procés d'entrenament en què aboques milers d'imatges a la màquina perquè aprengui els moviments d'aquella cara." Aquesta tècnica no només es pot fer servir per generar desinformació i confusió, sinó que també l'hem vist aplicada al cinema. En aquest cas se li diu CGI, Computer-Generated Imagery. En les últimes pel·lícules i sèries de l'univers Star Wars s'ha fet servir per rodar escenes amb la presència amb l'actriu Carrie Fisher a "The Rise of Skywalker" tot i que va morir abans que es fes la pel·lícula. De la mateixa manera, a la sèrie "The Mandalorian" hi apareix Mark Hamill fent de Luke Skywalker, però amb la cara que tenia Hamill als anys 70 i 80, quan va rodar les pel·lícules originals. En aquests casos, n'hi ha hagut prou d'"entrenar" una màquina mostrant-li totes les imatges de les cares dels actors perquè aprengui com és el seu rostre i combinant-les després, amb resultats molt bons. Aplicat al camp de l'actualitat i la política, el potencial del deepfake és catastròfic: gràcies a aquesta tècnica, cada vegada és més senzill fer vídeos en què una persona coneguda aparegui dient coses que mai ha dit. Fins ara, i degut a la potència de processament de dades que requereix aquesta tècnica, no hem vist gaires exemples rellevants del seu ús, però és de preveure que, amb el creixement constant i rapidíssim d'aquesta capacitat de computació, en vegem més sovint en el futur. Alguns experts adverteixen que en quatre anys qualsevol smartphone podria generar deepfakes. De fet, avui en dia ja hi ha aplicacions a l'abast de tothom per fer petites animacions amb només una fotografia. L'ús dels deepfakes pot contribuir a generar soroll i confusió en moments de crisi, quan l'aparició de declaracions falses però versemblants per part d'un protagonista determinat pot arribar a generar desinformació, però la possibilitat directa dels mateixos implicats per desmentir-les i fer vídeos reals fent saber la seva postura real en pot minimitzar els efectes. Tot i això, el potencial d'aquesta eina no s'acaba amb les declaracions públiques. També es pot fer servir per situar una persona en un lloc o una situació on no ha estat mai. Per exemple, el seu ús en la pornografia és i serà un dels més explotats amb les conseqüències que tots podem imaginar. Segons l'estudi de Sensity, una empresa que es dedica a detectar deepfakes, del 2019 el 96% dels 14.000 deepfakes que es van pujar a la xarxa, eren pornografia. Aquest mateix estudi apunta que la quantitat de deepfakes que es pugen a la xarxa es duplica cada sis mesos.  Sigui com sigui, hem d'estar previnguts que en els propers temps. Fins i tot un vídeo amb un rostre conegut explicant qualsevol cosa pot ser susceptible de ser un fake. La veu també es pot copiar Si les imatges i els vídeos de cadascun de nosaltres són cada cop més fàcilment manipulables i reproduïbles, passa el mateix amb la veu. Amb la mateixa tecnologia d'intel·ligència artificial i machine learning, diverses iniciatives arreu del món estan experimentant amb sintetitzadors de veu per reproduir i copiar veus humanes de manera artificial. De tots són coneguts els assistents virtuals com Siri o Alexa, que miren de reproduir la parla humana. En aquests casos, els assistents funcionen amb frases pregravades, però el pas següent és cada vegada més a prop: no ensenyar les màquines a reproduir una frase determinada quan toca, sinó ensenyar-los el llenguatge i la parla perquè elles mateixes puguin elaborar el discurs. A això s'hi pot sumar la còpia del timbre de veu, l'entonació o l'accent particular de cada persona.