Intel·ligència artificial per crear pornografia infantil: "Cal afrontar el problema ara"
Diverses entitats alerten de l'augment de les noves tecnologies per elaborar material d'explotació sexual infantil, cosa que complica perseguir els culpables
La irrupció de la intel·ligència artificial implica que, al costat de moltes oportunitats i avantatges, es pugui fer servir en àmbits il·legals. Per exemple, a l'hora de crear material d'explotació infantil. Experts i entitats alerten que els pedòfils l'estan utilitzant cada vegada més per crear imatges sexuals. Ho fan en pàgines de la "deep web" on pedòfils i pederastes s'intercanvien fotografies generades per ordinador.
Una entitat del Regne Unit en va identificar 250.000 en només un any. Estan allotjades en servidors dels Països Baixos, els Estats Units, Eslovàquia, Rússia, Hong Kong i Taiwan. Michael Tunks, d'Internet Watch Foundation, ha explicat a TV3:
"La generació d'imatges d'explotació sexual fetes amb intel·ligència artificial, la velocitat i el realisme amb què poden ser creades fan molt possible que en el futur augmentin significativament. Voldríem afrontar aquest problema ara mateix."
Josep Curto, expert en intel·ligència artificial de la UOC, hi afegeix:
"En sis mesos hem vist una revolució brutal en l'increment del realisme. Es normalitzarà una situació que no és normal. Serà complicat perseguir-ho com a crim, buscar els culpables i forçar les empreses que incloguin mecanismes per evitar aquesta problemàtica."
Els webs en qüestió permeten generar qualsevol imatge a partir d'una breu descripció formulada amb paraules senzilles i sense cap mena de restricció. A internet ja circulen manuals fets per pedòfils amb recomanacions.
De moment, només s'ha detectat un cas a l'estat espanyol que inclogui fotos d'explotació infantil generades per ordinador. A Valladolid es va detenir un home que tenia material sexual d'explotació d'infants reals i també imatges fetes amb intel·ligència artificial.