Neurodrets: la intimitat del cervell, nova frontera en la lluita per la privacitat
Experts de diversos camps reflexionen sobre l'ètica i les neurotecnologies, que registren l'activitat cerebral o hi interfereixen, i demanen debat tot i que algunes aplicacions puguin trigar molts anys a arribar
Protegir la informació que tenim al cervell per evitar que sigui recollida, emmagatzemada, utilitzada o fins i tot esborrada sense consentiment explícit.
No es tracta d'un paràgraf d'una novel·la de ciència ficció, sinó de la crida que diversos científics estan fent des de fa pocs anys. Les neurotecnologies, un nom que abasta qualsevol tecnologia que registri l'activitat cerebral o hi interfereixi, estan avançant tant que especialistes de diversos camps han alertat sobre la necessitat d'establir un nou tipus de drets específics: els neurodrets.
El projecte de Carta de Drets Digitals, elaborat pel Ministeri d'Afers Econòmics i Transformació Digital, ja contempla, en l'apartat XXIV, establir, per llei, límits i garanties per a l'ús de neurotecnologies en les persones, amb objectius com aquest:
"Assegurar la confidencialitat i seguretat de les dades obtingudes o relatives als seus processos cerebrals i el ple domini i disposició sobre aquests".
En el camp legislatiu, el país més avançat és Xile, que ha iniciat un procés constituent per elaborar una nova llei fonamental.
Al desembre, el Senat va aprovar una modificació i un afegit. En el primer cas, afegeix la integritat mental a la física i estableix que no es podrà, amb cap mecanisme tecnològic, "augmentar, disminuir o pertorbar aquesta integritat individual sense el degut consentiment".
En el segon cas, afirma això sobre la Constitució:
"Prohibeix qualsevol intromissió o forma d'intervenció de connexions neuronals o intrusió a nivell cerebral mitjançant l'ús de neurotecnologia, interfície cervell-ordinador o qualsevol altre sistema o dispositiu, que no tingui el consentiment lliure, exprés i informat, de la persona o usuari del dispositiu, fins i tot en circumstàncies mèdiques".
Algunes neurotecnologies ja es fan servir de manera habitual. Un exemple serien les tècniques de neuroimatges, com la tomografia per emissió de positrons PET, en anglès- que s'aplica tant en recerca per comprendre el cervell per diagnosticar algunes malalties neurològiques i cognitives.
Transformar pensaments en ordres
Un pas més serien les interfícies cervell-ordinador en què es connecten un o més xips al sistema nerviós. Això ja s'ha aplicat, de forma experimental, en alguns pacients. Així, un home tetraplègic va ser capaç de moure braços i cames i de caminar gràcies a un sistema robòtic accionat amb el pensament.
També hi ha sistemes que permeten transformar directament el pensament d'una persona en paraules.
Grans tecnològiques tenen els seus projectes de transformar el pensament en paraules. El de Facebook es diu Thought-to-text (pensament a text) i l'objectiu és desenvolupar una interfície que permeti escriure una paraula a l'ordinador simplement pensant-hi.
Un sistema així encara queda lluny, però els investigadors s'hi van acostant. En un article publicat a Nature Neuroscience al març del 2020, tres investigadors de la Universitat de Califòrnia a San Francisco descrivien un sistema entrenat per reconèixer patrons cerebrals relacionats amb paraules concretes.
El sistema, basat en xarxes neuronals que imiten el raonament humà-, s'havia entrenat amb voluntaris que pronunciaven determinades paraules en veu alta. Uns elèctrodes enregistraven la seva activitat cerebral en cada paraula i després el sistema intentava fer el camí invers: identificar paraules a partir de l'activitat cerebral. El percentatge d'errors amb un vocabulari de fins a 250 paraules era només del 3%.
Un altre projecte és el Neuralink, impulsat per Elon Musk. En aquest cas, volen dissenyar un implant neuronal que permeti controlar amb el pensament un ordinador o qualsevol dispositiu mòbil.
A finals d'agost, Musk va presentar una truja a qui havia implantat un xip connectar al cervell. I una altra a qui havien posat i després extret. Segons Musk, aquesta segona, anomenada Dorothy, demostrava "que pots posar el Neuralink, retirar-lo i ser saludable, feliç i indistingible d'un porc normal".
Debatre, encara que quedi lluny
Tot això encara trigarà anys a ser aplicat de manera més o menys extensa, però de moment demostra que interpretar les ones cerebrals o implantar xips connectats a les neurones és factible.
Alguns casos pràctics de les neurotecnologies han despertat tanta alarma que s'han hagut de retirar. Així, alguns alumnes xinesos d'ensenyament primari anaven a classe amb uns casquets que registraven en temps real la seva activitat cerebral. Això informava als mestres de si estaven concentrats en la classe o no.
Al novembre del 2019, el programa es va aturar, perquè molts pares havien expressat els seus temors que allò pogués ser utilitzat per controlar els seus fills.
Segons explica Ana Maiques, CEO de Neuroelectrics, al 324.cat, tot això queda molt lluny:
"A la gent li fa molta por que li diguin que podran llegir el pensament, però no hi estem a prop. Hi ha tecnologies que poden donar dades sobre signes precoços de malalties com Parkinson o Alzheimer i això ha d'estar protegit. Però no es pot accedir al pensament".
Neuroelectrics és una empresa amb seu a Barcelona que investiga i desenvolupa tecnologies no invasives per mesurar i modificar l'activitat cerebral. El seu enfocament va dirigit a restaurar la salut mental i minimitzar les discapacitats. Està orientada bàsicament, doncs, al sector clínic. Algunes recerques es poden veure en aquest vídeo:
Segons Maiques, les interfícies que permeten controlar dispositius amb ones cerebrals són molt complexes:
"Sempre que sigui possible, és millor que la persona controli el dispositiu movent encara que sigui un ull o un dit. En estats vegetatius, de persones que tenen el cervell intacte però no poden fer cap moviment, sí que s'ha assajat perquè puguin respondre preguntes amb un sí o un no o bé triïn una de les respostes que se'ls proposen".
Però fer servir aquests dispositius en altres situacions requereixen molta concentració i entrenament i ofereixen pocs graus de llibertat. A més, ara la tecnologia s'implanta amb cirurgia.
Des de la filosofia
En tot cas, això requereix aportacions des de diversos camps. Manuel López Baroni, professor de Filosofia del Dret a la Universitat Pablo de Olavide de Sevilla i membre de l'Observatori de Bioètica i Dret de la Universitat de Barcelona, creu que és difícil veure què serà possible i quan:
"El problema és que ens costa molt distingir la ciència-ficció de les coses possibles tècnicament. I, al mateix temps, quan una cosa és viable tècnicament, saber si és imminent o si trigarà una o dues generacions".
Per això creu que és tan difícil encertar amb la regulació, perquè es pot avançar massa per regular una cosa impossible des del punt de vista de les lleis de la natura, "o, pitjor encara, arribar tard". I posa un exemple:
"Sempre se'ns havia dit que era impossible introduir modificacions genètiques precises en un embrió humà, els anomenats bebès a la carta. I per això era innecessari regular-ho. Apareix la tècnica d'edició genòmica CRISPR i dos anys més tard ja tenim dues nenes vives modificades genèticament, una legislació desfasada i un context internacional poc procliu a regular aquesta tècnica, perquè ningú no vol quedar enrere en l'edició genòmica".
Els científics es mouen
En tot cas, les coses evolucionen. "Hi havia un període de tecnooptimisme i això ha canviat en els darrers anys", declarava Iason Gabriel, expert en ètica a Deepmind, l'empresa de Google que investiga en intel·ligència artificial.
Les declaracions estaven recollides en un article de Nature en què s'explicava que les preocupacions ètiques han arribat a la Neural Information Processing Systems Foundation, una entitat sense ànim de lucre que vol promoure la recerca en sistemes neuronals de processament d'informació.
Així, en la conferència celebrada online al desembre es va requerir als participants, per primer cop, una declaració sobre l'impacte que la seva recerca podia tenir en la societat, incloent-hi els possibles efectes negatius.
Però les veus que demanen més atenció a les conseqüències ètiques i socials se senten des de fa uns anys. El 2017, Marcelo Ienca, de la Universitat de Basilea, i Roberto Andorno, de la Universitat de Zuric, va publicar un article a Life Sciences, Society and Policies en què demanaven ampliar el marc dels drets humans amb dos nous neurodrets específics:
"El dret a la privacitat mental i el dret a la continuïtat psicològica".
El primer, expliquen, és el dret a protegir la informació sensible en la ment d'una persona. I el segon vol preservar "els substrats mentals de la identitat personal d'alteracions inconscients i no consentides mitjançant l'ús de neurotecnologies invasives i no invasives".
El 2013 es va iniciar l'estudi BRAIN, sigles en anglès de Recerca del Cervell a través de l'Avanç de Neurotecnologies Innovadores. L'objectiu és obtenir una imatge del cervell que mostri com les cèl·lules individuals i els circuits neuronals complexos interactuen en el temps i l'espai. Una imatge que pot aportar molts beneficis:
"Llargament desitjada pels investigadors que busquen noves vies per tractar, curar i fins i tot prevenir trastorns del cervell, aquesta imatge omplirà els principals buits en l'actual coneixement i proveirà oportunitats sense precedents per explorar com el cervell permet al cos humà registrar, processar, utilitzar, emmagatzemar i recuperar vastes quantitats d'informació, tot a la velocitat del pensament".
BRAIN està dirigit per Rafael Yuste, neurobiòleg de la Universitat Colúmbia. I des del Centre de Neurotecnologia d'aquesta universitat va llançar, el 2019, la Iniciativa de Neurodrets, que ell mateix dirigeix. A la pàgina principal de la seva web, afirma això:
"En els anys vinents, serà possible descodificar el pensament a partir de l'activitat neuronal o millorar les capacitats cognitives unint directament el cervell a xarxes digitals. Aquestes nocions poden posar un repte a la noció real de què significa ser humà".
Per això, fan una crida als acadèmics, dirigents polítics, científics i empresaris a generar consciència sobre els drets humans i els impactes ètics d'aquestes tecnologies.
Prioritats ètiques
Al novembre del 2017, Rafael Yuste i vint-i-quatre investigadors més bàsicament dels Estats Units però també d'altres països- publicaven a la revista Nature un article en què destacaven quatre prioritats ètiques per a les neurotecnologies i la intel·ligència artificial.
En el text, reconeixien els beneficis dels avenços en aquests camps:
"Podrien revolucionar el tractament de diverses condicions, des de les lesions en el cervell i la paràlisi a l'epilèpsia i l'esquizofrènia i transformar l'experiència humana per al millor".
Però també llançaven un crit d'alerta:
"La tecnologia pot també exacerbar les desigualtats socials i oferir a les empreses, hackers, governs o a qualsevol altre grup noves formes d'explotar i manipular la gent. I podrien alterar profundament algunes característiques humanes centrals: vida mental privada, voluntat individual i la consideració dels individus com a entitats obligades pels seus cossos".
Les quatre preocupacions que exposaven eren: privacitat i consentiment, voluntat i identitat, augmentació i biaix.
En el primer cas, destacaven que el registre de l'activitat diària o fins i tot de la manera de teclejar o del registre de veu pot permetre diagnòstics precoços de malalties com Parkinson o Alzheimer. Però que amb aquestes dades, afegides a tota la resta -cerques d'internet, pagaments online o amb targeta, trucades, etc.- els algoritmes poden calcular també primes d'assegurances i resseguir o fins i tot manipular l'experiència mental individual.
Per això, proposaven que la venda, transferència comercial o l'ús de dades neuronals estiguin regulades estrictament, de manera anàloga a les lleis que prohibeixen la venda d'òrgans.
En un altre punt, alertaven que algunes neurotecnologies poden alterar la voluntat i identitat de l'individu i incidir en la responsabilitat legal o moral de la persona.
També assenyalen que cal definir els límits per a l'ús de tecnologies que potencien les capacitats mentals i, particularment, regular-les de manera molt estricta en el camp militar.
Finalment, es refereixen als biaixos, que es produeixen segons les dades que utilitzen els algoritmes que prenen decisions sobre temes diversos, des de si un banc concedeix un crèdit a qui se selecciona per a una feina o si un pres té més tendència o menys a reincidir.
Per evitar-los, proposen un primer pas: que enginyers, desenvolupadors de tecnologia en general i investigadors rebin formació en ètica dintre de la seva preparació específica per al seu camp. Seria semblant, diuen, a la formació que es dona als metges sobre la confidencialitat i l'obligació de no causar dany mitjançant el jurament hipocràtic.
Les empreses també ho han de prioritzar
Això pel que fa als investigadors. Però, i les empreses? En un article publicat el 2019 a AJOB Neuroscience, Maiques destacava la importància de la neuroètica per a les empreses d'aquest camp. I incidia sobre els quatre temes: responsabilitat -sobretot quant a la seguretat de les tecnologies que desenvolupin-, privacitat de dades, identitat humana investigar si es pot alterar amb l'estimulació de parts del cervell- i equitat preguntar-se si prendran les mesures necessàries perquè la tecnologia arribi als qui més les necessiten.
Maiques creu que més important que els neurodrets és la neuroètica, un concepte més general i de què es parla fa temps. López Baroni explica que és un camp amb tradició perquè és filosofia de la ment, que s'ocupa de temes com la identitat o el lliure albir.
Quant al dret, sovint va massa lent i queda endarrerit, explica López Baroni:
"En aquesta cursa tecnocientífica, el dret s'està quedant enrere perquè tot just estem començant a reescriure la matèria viva i la inerta. Com que no sabem fins on podem arribar, no podem anticipar la regulació. Té sentit prohibir les investigacions sobre consciència artificial si ningú no sap si és possible crear consciència artificial, i de fet, no s'ha avançat gens? Aquest és el tipus de preguntes que ens fem".
Però segons Maiques, "hem de tractar aquests temes abans que la tecnologia s'acceleri i estudiar les implicacions que pot tenir en la societat":
"Les preguntes clau són les mateixes, independentment de l'estat actual de les tecnologies. Als Estats Units es fan debats a 20-30 anys vista i aquí no ho solem fer. La tecnologia arribarà i el seu impacte s'ha de debatre ara".
- ARXIVAT A:
- TecnologiaRecerca científica