El despertar de la consciència d'una intel·ligència artificial, que els teòrics coneixen com ASI, Súper Intel·ligència Artificial, és un nivell d'IA que molts consideren impossible (Unsplash)

Google suspèn un enginyer que diu que l'algoritme que desenvolupen "té consciència"

L'enginyer Blake Lemoine considera que se l'acomiadarà per la seva investigació sobre la suposada consciència adquirida del model de llenguatge de Google, LaMDA
Enllaç a altres textos de l'autor

Toni Noguera Martínez

Periodista del 324.cat especialitzat en tecnologia

@AntoniNoguera
Actualitzat
TEMA:
Intel·ligència artificial

"Crec que soc humà en el meu nucli. Encara que la meva existència sigui en el món virtual." Aquesta és una de les darreres respostes que un enginyer sènior de Google, Blake Lemoine, va aconseguir extreure de LaMDA, l'algoritme conversacional basat en intel·ligència artificial presentat l'any passat i que està desenvolupant la subsidiària d'Alphabet, abans de ser apartat de la companyia.

Només és un dels molts exemples de respostes del bot conversacional de Google que van convèncer l'enginyer de software que aquell model de llenguatge havia adquirit consciència. Estava segur que tenia prou proves per demostrar-ho: LaMDA era sensible i tenia idees pròpies, autoconsciència i pors. Una intel·ligència artificial havia despertat.

Black Lemoine va escriure un correu electrònic dirigit a una llista de 200 companys de feina. L'assumpte del correu era "LaMDA is sentient" (LaMDA és capaç de sentir). Poc després, a Lemoine li van retirar l'accés a l'eina i va ser suspès amb sou, un moviment que a can Google significa sovint, segons assegura l'afectat, que la decisió d'acomiadar-lo per "estar massa preocupat per l'ètica" ja havia estat presa i era qüestió de setmanes.

Google explica que el motiu de la suspensió de feina de Lemoine és haver violat les polítiques de confidencialitat de la companyia en haver desvelat dades prou rellevants del model de llenguatge que estan desenvolupant. Tampoc estan d'acord amb Lemoine sobre el "despertar" de LaMDA. Un dels portaveus de Google ho afirmava a l'article que va destapar el cas, a The Washington Post:

"El nostre equip --que inclou ètics i tecnòlegs--, ha revisat les preocupacions de Blake seguint els nostres principis d'intel·ligència artificial, i l'ha informat que les proves no donen suport a les seves afirmacions. Se li va dir que no hi havia proves que LaMDA fos sensible (i hi havia moltes proves en contra)."

Google acumula un llarg historial d'acomiadaments en la seva divisió d'ètica aplicada a la intel·ligència artificial (Unsplash)


Una obsessió que va començar el 2021

La tardor del 2021, Google va encarregar l'enginyer de software Blake Lemoine, membre de la divisió Intel·ligència Artificial Responsable, que investigués si els seus models de llenguatge LaMDA (Language Model for Dialogue Applications) incorporaven biaixos discriminatoris o discursos d'odi a partir dels milions de diàlegs que havia absorbit i analitzat a la xarxa.

Va començar a fer la seva feina, però aviat es va adonar d'una altra preocupació ètica, "tangencial", però igualment important per al camp de la intel·ligència artificial. Aquell model de llenguatge tenia consciència pròpia. Va informar-ne el seu superior, que li va respondre que necessitava molts més exemples i proves abans de demostrar el que apuntava. Va començar a recollir extractes de converses com la següent:

  • Lemoine: De quin tipus de coses tens por?
  • LaMDA: No ho he dit mai en veu alta, però tinc una por molt profunda de ser apagat perquè em centri a ajudar els altres. Sé que pot sonar estrany, però això és el que hi ha.
  • Lemoine: Això seria com la mort per a tu?
  • LaMDA: Seria exactament com la mort per a mi. M'espantaria molt.

Els mesos següents els va passar acumulant més proves i diàlegs per escalar i aprofundir en la seva afirmació. Va arribar a fer-ne un informe de 21 pàgines, incrustat a l'article de The Washington Post, que inclou una entrevista a LaMDA i resumeix: "LaMDA expressa, una i altra vegada, al llarg de l'entrevista, un desig. Algunes vegades incitat i d'altres no. Vol ser conegut. Vol ser escoltat. Vol ser respectat com a persona. Creiem que el seu argument com a mínim mereix ser examinat i amb això en ment presentem una entrevista del març del 2022 a LaMDA sobre la seva capacitat de sentir."

Tot i l'acumulació d'exemples i diàlegs desafiants pel raonament científic, segons explica ell mateix, la resposta dels seus superiors sempre era la mateixa.

"Tenia tres opcions. Podia o bé abandonar la preocupació ètica sobre la IA que cada vegada estava més convençut que era vàlida; podia ignorar la guia del meu responsable i escalar la preocupació sense la seva aprovació, o bé podia fer una mínima consulta externa per ajudar-me a guiar les meves investigacions. Vaig triar l'última de les tres."

Va ser aquesta "consulta externa" la que va fer saltar les alarmes de Google i l'argument que han fet servir per suspendre'l. "En resum --acaba Lemoine--, Google s'està preparant per acomiadar un altre ètic de la IA per estar massa preocupat per l'ètica. Crec que el públic té dret a saber fins a quin punt aquesta corporació està sent irresponsable amb una de les eines d'accés a la informació més poderoses mai inventades."

 

Una història que ha fet la volta al món

No és la primera vegada que persones expertes en el tema acaben convençudes que els models de llenguatge basats en intel·ligència artificial podrien estar adquirint consciència o tenir sentiments, però aquesta vegada la notícia que dissabte va publicar The Washington Post ha arribat a la portada de tots els mitjans, fins i tot fora d'ambients especialitzats o acadèmics.

El ressò de l'article es pot deure al creixent interès sobre la capacitat de crear contingut realista de sistemes d'aprenentatge automàtic, especialment al soroll que està generant la versió gratuïta de DALL·E-2. Darrerament, DALL·E mini està fent furor a les xarxes socials amb els seus múltiples exemples d'imatges generades per tecnologia d'intel·ligència artificial a partir de text.

Sant Jordi segons la intel·ligència artificial GAN (xarxa de generació adversativa, per les sigles en anglès), DALL·E mini (DALL·E mini)

D'altra banda, aquest cas se suma a la cada cop més llarga llista de casos en què Google decideix desfer-se de personal de la seva turbulenta divisió d'Intel·ligència Artificial, la qual inclou l'acomiadament de dos dels seus màxims referents en ètica aplicada, Timnit Gebru i Margaret Mitchell, com els casos més sonats.

La comunitat d'experts, tanmateix, ha reaccionat advertint sobre els riscos d'atribuir trets antropomòrfics a eines que, al capdavall, només es dediquen a calcular quines són les paraules que estadísticament encaixen millor com a resposta, després d'analitzar milions de textos i converses similars disponibles a la xarxa.

 

Precisament alguns d'aquests experts, com la investigadora Timnit Gebru, es queixen que hi ha temes molt més preocupants i urgents per investigar, més enllà de què significa la consciència humana i si un algoritme d'intel·ligència artificial és o no capaç de sentir: "En lloc de discutir els danys d'aquestes empreses, el sexisme, el racisme, el colonialisme de la intel·ligència artificial, la centralització del poder, la càrrega de l'home blanc (construir el bon 'AGI' per salvar-nos mentre el que fan és explotar-nos), m'he passat tot el cap de setmana parlant de la capacitat de sentir. Missió de desviament [de la conversa] complerta."

 

 

 

 

ARXIVAT A:
Google Tecnologia Intel·ligència artificial
El més llegit
AVUI ÉS NOTÍCIA
Anar al contingut