Creen un model que va més enllà de ChatGPT: aprèn i s'equivoca gairebé com els humans
L'han anomenat MLC i és capaç d'aprendre i fer servir el llenguatge pràcticament amb la mateixa rapidesa i habilitat que els humans
Dos investigadors, un de Nova York i l'altre de Barcelona, han desenvolupat un sistema d'intel·ligència artificial que és capaç de processar el llenguatge molt millor que el ChatGPT.
De fet, segons asseguren els autors, és tan competent i ràpid com les persones aprenent i combinant conceptes, i fins i tot tendeix a cometre errors similars als humans.
El que fa aquest nou sistema, que han anomenat Meta-aprenentatge per a la Composicionalitat, MLC en l'acròstic en anglès, és imitar la generalització sistemàtica humana.
Segons ha explicat un dels dos investigadors, Brenden Lake, de la Universitat de Nova York, aquesta és la capacitat de produir noves combinacions a partir de conceptes coneguts:
"Per exemple, un cop que un nen ha après què volen dir les paraules 'saltar', 'dues', 'vegades' i 'obstacle', entén de seguida què vol dir 'saltar dues vegades' o 'saltar un obstacle'."
Coautor de la Universitat Pompeu Fabra
L'altre autor de la investigació és Marco Baroni, professor ICREA del Departament de Traducció i Ciències del Llenguatge de la Universitat Pompeu Fabra de Barcelona.
Els resultats de la seva recerca s'han publicat aquest dimecres a la revista científica Nature, que l'ha destacat com una de les més importants d'aquesta setmana:
Avenç en l'IA: una xarxa neuronal té la capacitat humana de generalitzar el llenguatge."
AI 'breakthrough': neural net has human-like ability to generalize language https://t.co/vkMBChy7ph
nature (@Nature) October 25, 2023
Posat a prova amb persones i amb altres models d'IA
Baroni i Lake ha dedicat els últims anys a desenvolupar el sistema MLC i a posar-lo a prova comparant-lo amb 6 sistemes alternatius més, i també comparant els seus resultats amb els de les persones.
En un fil a Twitter/X, Lake ha explicat que aquest sistema està construït de manera que quan aprèn una paraula o instrucció nova, intenta utilitzar-la de manera sistemàtica, com ho fem els humans:
"Després de l'entrenament, MLC pot igualar o superar el rendiment humà en una comparació directa mitjançant una tasca d'aprenentatge artificial d'idiomes, i també pot reproduir biaixos i errors inductius humans."
After training, MLC can match or exceed human performance in a head-to-head comparison using an artificial language learning task. MLC can also reproduce human inductive biases and mistakes. (5/8) pic.twitter.com/wNylKpntSd
Brenden Lake (@LakeBrenden) October 25, 2023
Solucionar un repte antic pendent de resoldre
Segons expliquen en l'article de Nature, van partir de la teoria de dos filòsofs del llenguatge, Jerry Fodor i Zenon Pylyshyn, que el 1988 van afirmar que les xarxes neuronals no eren un bon model de la ment humana.
Per fer la recerca van inventar-se un llenguatge senzill que van fer aprendre a 25 persones, i van fer que l'utilitzessin en tasques senzilles per analitzar com ho feien, i van veure que el 80% de les vegades les encertaven.
Després van "ensenyar" el llenguatge a 7 models diferents d'intel·ligència artificial, i van constatar que només el MLC, creat per ells, aconseguia resultats similars als de les persones.
Els límits dels models grans de llenguatge
En canvi, el model més avançat d'OpenAI, el GPT-4, que és un model gran de llenguatge, del tipus que exigeix milions de referències perquè aprengui, tenia una taxa d'encert que baixava fins al 42%:
"Vam trobar que, a diferència dels models simbòlics probabilistes perfectament sistemàtics però rígids, i les xarxes neuronals perfectament flexibles però no sistemàtiques, només MLC aconsegueix tant la sistematicitat com la flexibilitat necessària per a una generalització semblant a l'ésser humà."
Lake s'ha referit als models grans de llenguatge afirmant que s'han fet cada vegada més grans amb l'esperança que així, per una qüestió de magnitud, apareixeria la capacitat de la generalització sistemàtica.
Però malgrat tot no s'ha aconseguit, i, en canvi, Baroni i Lake afirmen que han creat un sistema també sobre la base de xarxes neuronals similars, però amb una arquitectura que permet un aprenentatge molt més ràpid i eficient.