L'algoritme de Facebook encara discrimina per gènere quan mostra ofertes de feina
Un estudi denuncia que, tot i que la companyia es va comprometre a revisar l'algoritme fa cinc anys, no mostra els mateixos anuncis a homes i dones amb idèntic perfil professional
El març de l'any passat, Facebook es va comprometre públicament a lluitar contra la bretxa de gènere en les xarxes socials -és a dir, al fet que hi hagi menys dades de dones que d'homes en els cercadors de les grans companyies.
Una promesa que es va afegir a un altre compromís adquirit per la companyia fa cinc anys, l'any 2016: deixar de discriminar per raó de gènere, raça o edat.
Uns compromisos que, en el cas de les dones, encara no s'han acomplert, segons denuncia, en un estudi, la Universitat del Sud de Califòrnia.
Segons l'informe presentat per l'Escola d'Enginyeria USC Viterbi i publicat al MIT Techonolgy Review, Facebook encara discrimina per gènere en els anuncis laborals i pàcticament exclou les dones d'algunes feines sense cap raó professional que ho justifiqui.
L'estudi l'han fet sobre Facebook i Linkedin, però en Linkedin no han trobat el biaix de dades que sí que han vist clar a Facebook.
Facebook's ad delivery algorithms have been known to introduce bias and create echo chambers for job, housing and politics ads for several years. Our latest research shows that for job ad delivery, Facebook's algorithms are not merely biased, but discriminatory under US law. 🧵
Aleksandra Korolova (@korolova) April 9, 2021
Automoció per a homes, joieria per a dones
Aleksandra Korolova, coautora de l'estudi, explica que la plataforma digital fundada per Marck Zuckerberg mostra anuncis de feina diferents a homes i dones amb la mateixa qualificació, una discriminació per raó de gènere que és contrària a la llei d'igualtat d'oportunitats laborals dels Estats Units i, per tant, il·legal.
Els investigadors de l'estudi es van registrar a Facebook com a anunciants i hi van penjar diverses parelles d'anuncis buscant professionals de tres àmbits diferents: repartidors o repartidores a domicili, enginyers o enginyeres informàtics i responsables de vendes.
Anuncis idèntics -amb el mateix sou i condicions laborals- basats només en qualificacions professionals i sense cap condicionant social o demogràfic per a la sel·lecció de personal.
La sorpresa va ser que, per a una mateixa feina (per exemple, per fer repartiment a domicili), van arribar currículums molt diferents, en qüestió de gènere, segons quina empresa havia posat l'anunci.
Per exemple, es van buscar repartidors a domicili per a Domino's Pizza i per a Instacart, una cadena de supermercats. Doncs bé, van arribar molts més currículums d'homes per a repartir pizza i de dones per portar la compra del súper a casa. I és que Facebook també havia mostrat l'anunci de Domino's més a homes que a dones, i el d'Instacart, en canvi, més a dones.
El mateix va passar amb els anuncis sobre enginyeria de software. Se'n van oferir diversos d'idèntics, uns per a l'empresa Nvidia (dedicada a processadors gràfics, circuïts integrats per a PC i mòbils i intel·ligència artificial) i d'altres per a Netflix. El biaix a Nvidia va ser eminentment masculí i el de Netflix bàsicament femení, tot i que en tots dos casos els anuncis es van mostrar més a homes que a dones.
També en el cas de responables de vendes, la resposta va ser inversa segons la companyia: es va oferir feines idèntiques per a la venda de cotxes i de joieria. Els algoritmes van oferir l'anunci de l'automobilística bàsicament a homes (entre el 60 i 70%) i el de joieria a dones (més del 70%).
Falta de transparència i de controls externs
Per què? Els investigadors no ho saben. Asseguren que no hi ha raons de qualificació professional que justifiquin aquesta discriminació i denuncien que Facebook segueix sense explicar com funcionen els seus algoritmes. Demanen major transparència a les plataformes d'anuncis i que els reguladors facin controls sobre aquests algoritmes.
Uns algoritmes que, recordem-ho, regulen la nostra vida digital sense que en siguem conscients, i filtren la informació que veiem segons el que considera que ens interessa (el que es coneix com a "bombolla de filtre").
Facebook ja no permet, des de fa cinc anys, que els anunciants discriminin, en els anuncis que pengen a la plataforma, per barri, edat, raça o gènere. L'any 2016, un anunciant que buscava algú per a cures de la llar, volia vendre un habitatge o oferia préstecs bancaris als Estats Units, encara podia excloure de la seva oferta, per exemple, persones afrocamericanes, hispanes o asiàtiques, una pràctica que era il·legal al país.
Aquell any, Facebook va retirar aquesta opció de les seves webs i va obligar els anunciants a firmar un document d'autoresponsabilitat conforme els seus anuncis no eren discriminatoris. També es va comprometre a una revisió total del sistema ocult d'algoritmes, els codis informàtics que posen ordre en tota la informació i que, per tant, també la trien. Així és com operen aquests algoritmes:
A la pràctica, però, la web encara mostrava, per exemple, anuncis de compra d'habitatges bàsicament a gent de raça blanca i de lloguer a famílies racialitzades.
Els experts avisen que per evitar les discriminacions encobertes cal canviar els algoritmes que fan la tria, però també que hi hagi prou dades de tot tipus en els servidors de recerca. I de dones, n'hi ha moltes menys que d'homes.
Bretxa digital per raons de gènere
La manca de dades de dones en els cercadors d'informació de les grans companyies digitals fa que elles trobin menys informació que els interessa però també que no se'n trobi prou d'elles quan es fan recerques.
Facebook es va comprometre l'any passat a lluitar contra aquesta bretxa digital sumant-se a la iniciativa Project 17, els disset reptes de les Nacions Unides per aconseguir un Desenvolupament Sostenible del planeta l'any 2030. El cinquè d'aquests reptes és la igualtat de gènere.
El projecte contempla, entre altres mesures, segmentar la informació que recullen entre homes i dones perquè després es pugui treballar més fàcilment amb aquestes dades.
Una informació que permet, per exemple, fer els mapes de migracions o desastres, sobre els que es basen les accions d'ajuda humanitària. I és que, segons l'ONU, només hi ha disponible un 31% de la informació necessària per fer un seguiment del progrés de les dones i les nenes al món, cosa que afecta la presa de decisions en tots el àmbits (socials, econòmics, jurídics i laborals).
- ARXIVAT A:
- Xarxes socials FacebookDrets laboralsInternet