Encara que pugui semblar paradoxal, les màquines tenen ideologia. El robot "Ernie", el xat ChatGPT de la Xina --per exemple-- repeteix els mantres del règim del país asiàtic. Si li preguntes per la independència de Taiwan, l'eina et diu que la Xina no es pot dividir i, si vols comentar les manifestacions a favor de la democràcia, com les mítiques protestes a la plaça de Tiananmen, et diu que vol canviar de tema.  I la desenvolupada per la Xina és només un exemple d'intel·ligència artificial que té biaixos, però no és l'única. Un altre cas sonat és el de la discriminació dels algoritmes racistes quan, el 2015, Google Fotos confonia fotografies de persones negres amb goril·les. Segons explica al "Catalunya Nit" de Manel Alías l'especialista en intel·ligència artificial i enginyer informàtic, Josep Maria Ganyet, és fàcil saber per què l'aprenentatge automàtic té aquests biaixos:  "S'agafa tot el que hi ha a Internet, grans quantitats de dades en forma de textos, imatges o vídeos, s'entrenen uns sistemes d'intel·ligència artificial i són aquests mateixos sistemes els que n'extreuen el coneixement. Aquestes dades les hem generat les persones, les societats, i totes les societats i tots els individus tenen biaixos." "Més possibilitats" d'exclusió per a les dones Un altre exemple té a veure amb el biaix de gènere i el llenguatge que, com sabem, no és neutre. Així, per exemple, si demanes al traductor "Google translate" que tradueixi del català al turc la frase "ell és infermer" i, del turc, que t'ho torni a traduir al català, et torna la frase "ella és infermera".  Però això no només passa amb les infermeres, sinó que també passa amb professions molt feminitzades, com les recepcionistes i les perruqueres. I el mateix amb professions masculinitzades: si traduïm la frase "ella és arquitecta" al turc i la tornem a traduir al català, passarem a "ell és arquitecte".  La intel·ligència artificial reprodueix les discriminacions per raons de gènere del món real (Canva/Metamorworks) I les infermeres, els arquitectes i els goril·les no són casos anecdòtics. Els biaixos en intel·ligència artificial són un problema que es fa gran. I és que, segons Ganyet, els algoritmes amplifiquen els biaixos que ja tenim els humans:  "El que fan és perpetuar aquests biaixos, perquè si a la intel·ligència artificial mai li han dit que una dona pot ser president d'una multinacional i fa l'elecció de currículums per a una gran multinacional, les dones tenen moltes més probabilitats que els homes de quedar excloses."  Quina és la solució?  I, quina és la solució a aquesta situació? El primer pas per canviar qualsevol cosa és adonar-se'n i els programadors són conscients del problema. En aquest sentit, diu Ganyet que per molt que avanci la tecnologia, la mirada dels humans sempre serà necessària:  "D'aquí que sigui molt important el rol de les persones. En cap moment podem pretendre prescindir del criteri de les persones a l'hora de desenvolupar una intel·ligència artificial o d'acceptar-ne els resultats."  Aquesta mateixa setmana, grans figures del sector tecnològic als Estats Units --Elon Musk, de Tesla; Mark Zuckerberg, de Meta; i Sundar Pichai, d'Alphabet, entre d'altres-- han instat el legislatiu nord-americà a abordar com regular una activitat que els mateixos experts admeten que se'ls escapa de les mans. De fet, han demanat crear un departament dins del govern amb un àrbitre que resolgui les jugades conflictives. Pel que fa a Europa, malgrat que encara és un anhel, ja fa temps que han posat negre sobre blanc en aquesta qüestió.