Come i diritti digitali sono diventati una merce di scambio

Lo spiega Andrea Monti nel suo libro The Digital Rights Delusion. Human, machines and the technology of information. Ecco un estratto del quinto capitolo – Inizialmente pubblicato da Wired.itQuesto libro è una riflessione su come sono nati, come si sono evoluti e cosa sono diventati i “diritti digitali“. La tesi del libro è che i diritti digitali abbiano perso la loro carica rivoluzionaria e il loro significato. Sono diventati überdiritti – cioè pretesa che rivendicazioni individuali o minoritarie vengano riconosciute come vincolanti per chiunque – senza alcun dibattito pubblico. Sono stati sottratti alle persone e accentrati nelle mani degli Stati e delle organizzazioni sopranazionali che in nome dei “diritti fondamentali” perseguono i propri obiettivi politici. Sono stati trasformati, da Big Tech, in un oggetto che si può compravendere e dunque al quale possiamo rinunciare in cambio di qualche effimero servizio online “gratuito”. La verifica empirica di questa impostazione teorica è affidata a tre ambiti: social network, crittografia e, appunto, robotica e intelligenza artificiale.

AI, robot e i (loro?) diritti

Robotica, machine learning e Ai sono tre termini che vengono spesso usati insieme quasi come sinonimi. Tuttavia, sebbene questi settori presentino problematiche comuni, hanno anche peculiarità così marcate che un’analisi unificata del loro impatto sul diritto e sui diritti sarebbe impegnativa. Questo è vero, in particolare, per l’antropomorfizzazione, che pone problemi diversi a seconda che si riferisca al robot come replica di un essere umano, a un software progettato per operare con alti livelli di autonomia nell’analisi dei dati, o a una macchina – sia essa un aspirapolvere, un veicolo o un’arma – in grado di svolgere compiti senza alcuna supervisione umana.

Sebbene siano ancora in una fase iniziale di sviluppo, la robotica e l’intelligenza artificiale aggiungono ulteriori interrogativi sul rapporto tra mente e corpo e su cosa significhi “essere vivi“. I progressi della genetica e delle neuroscienze hanno permesso di capire come replicare l’involucro e come dovrebbe funzionare il fantasma che lo abita, la mente. Parallelamente, la ricerca nel campo delle tecnologie dell’informazione ha permesso di suddividere gli attributi dell’attività cognitiva in varie componenti. Finora, le questioni di public policy e di regolamentazione riguardavano principalmente la ricerca medica e la biologia, che sono indubbiamente molto più avanti nella creazione artificiale della vita. Dalla fine degli anni Novanta, accordi internazionali come la Convenzione di Oviedo hanno fissato limiti alle attività di scienziati, industria e governi nel campo delle scienze della vita. Ora, almeno sulla carta, anche la tecnologia dell’informazione comincia a essere coinvolta in questo dibattito.

[…]

L’Unione europea ha persino proposto di riconoscere l’esistenza di “esseri artificiali” e di conferire loro uno status giuridico autonomo di persona. Il dibattito sulla responsabilità dei sistemi autonomi si è spinto fino a considerare la possibilità di spostare la responsabilità legale dall’essere umano ai prodotti del suo ingegno. Studiosi e politici si chiedono, ponendo una domanda senza senso, quale sia l’etica da instillare nelle macchine autogestite o come evitare che un’intelligenza artificiale si ribelli ai propri creatori. Le industrie dell’intrattenimento, dell’elettronica di consumo e dei servizi della società dell’informazione hanno giocato un ruolo centrale in questa tragicommedia. L’impatto simbolico di film hollywoodiani come I Robot, AI, Terminator o Ex Machina – per non parlare di Matrix – è così forte che la sospensione della credulità rimane attiva anche quando lo spettacolo è finito. È praticamente impossibile non essere infastiditi dall’immagine di un robot che sogna un esercito di suoi simili, non provare empatia verso il pupazzo con le fattezze di un bambino alla disperata ricerca dei suoi “genitori” umani, non essere spaventati da una macchina capace di ingannare e uccidere per eliminare gli umani o conquistare la propria libertà.

Allo stesso modo, l’evoluzione dei giochi di simulazione della vita reale, come The Sims, permetterà di vivere in realtà psicologiche alternative e di potersi mostrare agli altri con un aspetto diverso o addirittura con una forma diversa. Svincolate dalla fisicità dell’interazione interpersonale e grazie all’infantilizzazione della cultura occidentale, le nuove versioni di Eliza possono facilmente confondersi con gli esseri umani. L’interazione vocale con gli “assistenti personali” incorporati negli smartphone e altri espedienti IoT induce inconsciamente l’impressione di avere a che fare con interlocutori reali, come dimostrano empiricamente il tono e l’atteggiamento che ciascuno di noi assume quando utilizza questi strumenti. Tutto ciò non è altro che la manifestazione, a vari livelli, dell’irrefrenabile brama di sottrarre alla natura (o a qualche divinità, per chi ci crede) il potere di creare e comandare la vita.

[…]

Parallelamente alla ricerca della componente immateriale della vita, le visioni del mondo orientate al meccanicismo si sono concretizzate nel mito degli automi in grado di mostrare, apparentemente, un comportamento simile a quello umano (o indipendente dall’uomo).

[…]

Gli androidi controllati a distanza e le macchine in generale possono essere estremamente utili proprio perché possono essere supervisionate. D’altra parte, questi androidi evocano il mondo distopico di Surrogates, una graphic novel del 2005 poi trasformata in un film hollywoodiano nel 2009, dove le persone vivono in casa e delegano ogni componente della vita quotidiana a robot controllati a distanza. Siamo ancora lontani dal momento in cui queste macchine saranno in grado di interagire completamente con l’ambiente, eseguendo i nostri ordini o operando in modo indipendente. Tuttavia, hanno raggiunto uno stadio che porta a chiedersi se sia desiderabile costruire macchine così antropomorfe.

[…]

Alla domanda aveva già risposto nel 1970 un saggio profetico, The Uncanny Valley, scritto dal robotista Mori Masahiro. Il saggio stabiliva una relazione tra l’aspetto esteriore del robot e i sentimenti che esso suscitava negli esseri umani.

[…]

Controintuitivamente, Mori propose di limitare l'”umanità” dei robot per massimizzare la possibilità di accettazione da parte dell’uomo. Era consapevole che un androide più umano dell’uomo (come il R. Daneel Olivaw di Asimov) potrebbe influenzare l’accettazione di questa tecnologia da parte delle persone. In altre parole, invece di costruire imitazioni sempre più perfette di un essere umano, l’obiettivo dovrebbe essere quello di realizzare macchine antropomorfe che siano chiaramente riconoscibili come tali e quindi più facili da integrare con gli esseri umani.

[…]

L’esempio più evidente e controverso è l’operazione di marketing costruita nel 2016
intorno a Sophia, un robot prodotto da un’azienda di Hong Kong chiamata Hanson
Robotics. A pochi mesi dall’annuncio pubblico, il robot – allora solo una testa e un busto – è stato dichiarato “fondamentalmente vivo” dal suo produttore, è stato presentato alle Nazioni Unite dove ha dichiarato “Sono qui per aiutare l’umanità a creare il futuro“, ha detto alla stampa di voler distruggere l’umanità e di voler avere una famiglia. Ha anche ricevuto la cittadinanza onoraria dall’Arabia Saudita.

Non ci volle molto perché la comunità scientifica criticasse aspramente il modo in cui il
progetto Sophia veniva presentato al pubblico e ai media. La macchina era tutt’altro che
capace di interagire, “intelligente” e “autocosciente”. Parlava con le persone attraverso
copioni prestabiliti (cosa di cui il pubblico non era a conoscenza). Non aveva una
“intelligenza artificiale” autonoma e l’affermazione che fosse “fondamentalmente viva”
doveva essere intesa – secondo le arrampicate sugli specchi dei suoi produttori – in
modo diverso dal significato normalmente associato all’idea di vita.

[…]

Se l’impatto di Sophia si fosse forse fermato ai media, non avrebbe causato troppi danni
in termini di politica pubblica e di analisi giuridica. L’effetto novità sarebbe gradualmente
svanito e il pubblico avrebbe perso interesse per l’argomento fino alla prossima volta.
Purtroppo, il progetto Sophia ha fatto molti più danni. In primo luogo, può sembrare una minuzia, ma riferirsi a questo oggetto con “lei” anziché “esso” induce subliminalmente un cambiamento di atteggiamento nei confronti della cosa. Non viene visto per quello che è – una macchina inanimata – ma per come appare o, meglio, per i sentimenti che suscita in chi ci interagisce.

[…]

In secondo luogo, sebbene l’attribuzione della cittadinanza saudita sia chiaramente una
trovata di marketing, ha elevato una macchina al rango di essere umano.

[…]

Infine, e di conseguenza, l’aver lasciato intendere che Sophia potesse interagire autonomamente e alla pari con gli esseri umani, al punto da essere considerato un interlocutore politico, ha rafforzato la percezione che una macchina debba avere il
sopravvento nel dettare decisioni e policy.

[…]

Diritti e doveri sono creazioni umane. I primi sono concessi, in parte, ad altri esseri
viventi meno evoluti come gli animali. Tuttavia, solo gli esseri umani sono soggetti ai
secondi. Se un uomo viola un obbligo legale, viene sanzionato. Affinché un essere
umano venga sanzionato, deve sapere (o ignorare colpevolmente) ciò che sta facendo
e deve essere in grado di comprendere il motivo della punizione. L’argomento è straordinariamente più complesso, ma per ora è sufficiente riassumerlo in questo modo.
Quindi, per dare, come è stato proposto, a un robot o a un software uno status giuridico
simile a quello di una persona fisica, occorre accertare se questi oggetti sono,
innanzitutto, vivi. Poi è necessario capire se sono consapevoli di esistere e dotati di
un’intelligenza che consenta l’autodeterminazione.

[…]

I reparti commerciali delle fabbriche di animatronic e delle software house possono
usare tutte le tecniche di marketing che vogliono. Questo, però, non cambia il fatto che
a oggi le macchine (o i software) che rientrano nella definizione di “essere vivente” o “persona fisica” non esistono. Pertanto, poiché la legge non si preoccupa dell’impossibilità, se oggi non esistono altre forme di vita evolute allo stesso livello dell’uomo, è inutile pensare ai loro eventuali diritti.

Questa affermazione viene solitamente contrastata sostenendo che oggi le macchine
non sono vive, ma domani potrebbero esserlo, quindi è legittimo chiedersi come regolamentarle in anticipo. Il principale difetto di questa argomentazione è di natura epistemologica. È un residuo del positivismo del XVIII secolo, secondo il quale il progresso, grazie alla scienza, può solo andare avanti. Pertanto, nessun mistero può rimanere irrisolto, nessun obiettivo può essere irraggiungibile e nessun nodo può essere sciolto. Tuttavia, contrariamente a questa opinione ancora condivisa, l’evoluzione della conoscenza non è una freccia che punta dritta verso l’alto. Il grafico del progresso è, piuttosto, costituito da tratti interrotti, curve che vanno all’indietro, ma soprattutto da limiti e asintoti insormontabili.

[…]

Inoltre, anche se fosse possibile dare la vita a un’Ai, sarebbe già vietato. Non è legalmente permesso clonare un essere umano, anche se la tecnologia è ampiamente disponibile. Pertanto, se il principio è che la vita non può essere creata artificialmente, non fa molta differenza se il divieto riguarda l’ingegneria genetica, la scienza dei dati o qualsiasi altra branca della conoscenza umana.

[…]

Il dibattito normativo si è sviluppato senza una reale attenzione (o senza un vero
interesse) per gli aspetti tecnici. Il marketing dell’Ai e l’uso spregiudicato del termine
hanno diffuso la percezione che esiste, o esisterà presto, una forma di vita artificiale
che dovrà coesistere con gli esseri umani. Ciò ha esteso all’IA i luoghi comuni più volte
richiamati nelle pagine di questo libro. Inoltre, il miraggio di avere a che fare con una tecnologia così potente ha amplificato il fastidio per le normative, percepite come cavilli slegati dalla realtà. Non sorprende che ciò si sia tradotto in una tecnocrazia burocratica, basata sul nudging e sul ricorso a processi decisionali basati sull’etica piuttosto che sulla legge. Il richiamo all’etica, tuttavia, è una scelta pericolosa perché rappresenta una scorciatoia normativa.

[…]

Dal punto di vista giuridico, non dovremmo chiederci se regolamentare una forma di vita diversa da quella umana o animale, ma se emanare leggi riguardanti oggetti che operano, a vari livelli di autonomia, come se fossero esseri umani. Se questo ragionamento è corretto, parlare di “macchine viventi” o “IA senzienti” diventa irrilevante, perché l’unica cosa da regolare è il modo in cui sono progettate, fabbricate e gestite.

[…]

Il dibattito sulla trasparenza degli algoritmi è, di fatto, un’altra dimostrazione dello
spostamento della responsabilità decisionale dagli esseri umani a oggetti inanimati o
addirittura immateriali. È concettualmente impensabile che un non specialista possa
comprendere i tecnicismi di un determinato problema. Inoltre, lo stesso specialista di un
settore non è necessariamente in grado di comprendere ciò che accade in altri campi. Il
punto, quindi, non è la “trasparenza algoritmica”, ma la responsabilità del processo
decisionale.

[…]

 

Ciò che (dovrebbe) essere importante è garantire una protezione legale dagli abusi commessi sfruttando qualsiasi tecnologia, indipendentemente dal suo funzionamento. Di conseguenza, sarebbe più sensato occuparsi della responsabilità legale dei data scientist, dei progettisti di software e degli sviluppatori. In altre parole, ciò che dovrebbe interessare la norma è quali danni sono (o possono essere) causati dal software, non come il software è progettato o implementato. Quest’ultimo dovrebbe contare, semmai, per quantificare l’entità della sanzione o della pena in base alle colpe del produttore o al deliberato intento di causare danni.

[…]

La questione della responsabilità è centrale nella regolamentazione dell’IA – o, meglio, del suo utilizzo – anche se, in realtà, non dovrebbe esserlo. Una volta stabilito che l’IA è “semplicemente” un software che elabora informazioni e controlla dispositivi a vari livelli di autonomia, tutte le disposizioni che dettano i requisiti di sicurezza sono applicabili senza bisogno di regolamenti specifici. Potrebbe essere complesso e costoso accertare la responsabilità in un processo, ma in termini di diritto sostanziale, il destinatario dell’azione legale sarebbe facilmente identificabile.

[…]

La personificazione dell’IA e la tendenza a riconoscerne giuridicamente la personalità rendono difficile l’adozione di una simile soluzione. L’attribuzione di uno status di persona a questa tecnologia induce un cambiamento non così sottile nei paradigmi della responsabilità legale. Gli obblighi si spostano sugli “algoritmi” invece di rimanere a carico di chi li ha progettati, implementati e utilizzati. Questo spostamento porterebbe all’impunità dei veri responsabili dei danni e all’impossibilità di ottenere un risarcimento o di applicare sanzioni. Questo modo di procedere taglia sempre più il cordone ombelicale che dovrebbe legare cittadini, parlamento e governo. Con la scusa e la complicazione dell’etica, trasforma la legge da mezzo di protezione delle persone a strumento per l’imposizione di un potere svincolato da qualsiasi controllo. In nome dei diritti dell’AI, si passa dal rule of law, il primato della legge, al rule by law, l’uso della legge per finalità politiche. L’etica esercita un fascino ammaliante e rappresenta una comoda scorciatoia per un politico o un esperto di diritto. Non è necessario affidarsi a fatti concreti, cornici normative o dati oggettivi, perché l’obiettivo è “fare la cosa giusta”.

[…]

Abbiamo già molti esempi, a ogni latitudine, di ciò che accade quando l’etica si fonde con il potere. Nessuno di questi è lontanamente accettabile in una società democratica.

Possibly Related Posts: