Un riflessione sull’idea di attribuire personalità giuridica all’AI, sulla responsabilità e sui diritti nell’era dell’intelligenza artificiale d Andrea Monti – Inizialmente pubblicato su MIT Technology Review Italia
L’invasione del mercato da parte di prodotti con AI e machine learning ha trasformato queste tecnologie da invenzioni letterarie e strumenti per esercizi intellettuali in problemi giuridici e di governance. I sistemi stanno diventando sempre più capaci di prendere decisioni a vari livelli di autonomia, di suscitare delle “reazioni empatiche” negli utenti e influenzare — o meglio, alterare negativamente — le loro capacità cognitive.
Le conseguenze dell’interazione di questi software con gli esseri umani impongono di chiedersi se l’intelligenza artificiale dovrebbe o potrebbe essere trattata come una persona giuridica, o quali principi dovrebbero guidare l’attribuzione di responsabilità e il riconoscimento dei diritti in un’epoca in cui l’azione umana e quella delle macchine si intrecciano come mai prima.
Per esplorare questi temi, MIT Technology Review ha incontrato James Boyle — William Neal Reynolds Professor of Law alla Duke Law School e autore di The Line: AI and the Future of Personhood — al quale ha chiesto di discutere i fondamenti concettuali della personalità giuridica dell’IA e di valutare le implicazioni di una scelta del genere per la giustizia, la responsabilità e l’ordine sociale.
In questo dialogo, James Boyle invita a riconsiderare i presupposti alla base delle definizioni giuridiche di personalità, considerando l’IA non solo una sfida tecnologica, ma anche un riflesso di un dibattito millenario sulla moralità, l’umanità e i limiti dell’astrazione giuridica.
Quando ho letto il suo libro, sono rimasto colpito dalla centralità di un’idea: in teoria, non c’è nulla di sbagliato nell’attribuire personalità giuridica all’IA, dato che lo facciamo già con le società o altri enti. Perché, allora, il mondo accademico ha reagito in modo così imbarazzato a tali teorie?
In realtà, non ho iniziato dalle società, ma dai fondamenti morali e giuridici che un giorno potrebbero giustificare il riconoscimento dei diritti alle entità artificiali. Mi sono chiesto: un’intelligenza artificiale, in una forma futura, potrebbe avanzare nei nostri confronti delle pretese morali che ci sentiremmo obbligati, moralmente e giuridicamente, a riconoscere? Queste pretese potrebbero dare diritto a un’entità artificiale a un certo livello di protezione, a una qualche misura di tutela giuridica?
Un materialista scientifico crede che la coscienza sia un prodotto di processi fisici: quelli dei neuroni nel cervello, ma più in generale di quelli di tutto l’organismo. Non ho trovato alcun argomento definitivo che dimostri l’impossibilità che la coscienza emerga in una macchina. Se una macchina raggiungesse la coscienza e se rifiutiamo lo specismo, se non affermassimo che i diritti sono limitati a coloro che hanno il DNA umano, allora diventerebbe difficile negare la dignità morale a un’entità non umana. Questa è la riflessione che potremmo dover compiere sui futuri sistemi di IA, se arrivassimo a credere alla loro autocoscienza. Ma, come lei nota, c’è un modo alternativo per arrivare a questo risultato: potremmo dare personalità all’IA perché una scelta del genere è efficiente, è legalmente conveniente, proprio come facciamo con le persone giuridiche che conosciamo bene, come le società. E questo percorso suscita reazioni molto diverse.
Ma filosofi come John Searle sostengono che le macchine non potranno mai essere veramente coscienti, che si limitano a ripetere a pappagallo delle regole senza una vera consapevolezza.
Sì, Searle sostiene che la cognizione delle macchine sarebbe sempre derivativa, costruita da processi incapaci di produrre coscienza. Ma questa posizione è simile alle critiche mosse all’evoluzione in epoca vittoriana: “Come possono esseri umani coscienti discendere da alghe che non lo sono?” Queste critiche rifiutavano l’idea delle proprietà emergenti, ma si sbagliavano perché la coscienza può emergere da processi non coscienti.
In secondo luogo, Searle afferma semplicemente che la coscienza è per forza biologica, ma questo è un ragionamento circolare che presuppone ciò che, in realtà, dovrebbe dimostrare. Ovviamente, i sistemi di IA odierni non sono coscienti. Sono ottimizzati per svolgere compiti, non per generare autocoscienza. Ma i neuroscienziati e gli informatici concordano sempre più sul fatto che le capacità che associamo alla coscienza non devono necessariamente essere limitate alle entità biologiche o alla nostra specie.
Se siete fan di Star Trek, ricorderete il signor Spock e il comandante Data. Nessuno dei due ha il 100% di DNA umano (Data non ne ha affatto), ma se fossero reali e non immaginari, li tratteremmo sicuramente come entità degne di considerazione morale.
Quindi la sua prima domanda è: l’intelligenza artificiale potrebbe avanzare rivendicazioni morali “di diritto”?
Esattamente. Da Aristotele a Turing, la coscienza e il pensiero sono stati collegati al linguaggio. Per secoli abbiamo dato per scontato che le frasi implicassero essere senzienti. Ora sappiamo che non è così. La capacità di formare frasi grammaticalmente perfette non è sufficiente. Ciò che conta è l’intenzionalità, la sensazione che dietro le parole ci sia un’entità.
Prendiamo ad esempio Guernica di Picasso, che mostra gli orrori della guerra civile spagnola. Se una macchina creasse esattamente quel quadro, pennellata dopo pennellata, il risultato non avrebbe lo stesso significato dell’opera di Picasso. Anzi, non avrebbe alcun significato. Ma se una macchina incarnasse l’intelligenza, imparando attraverso l’esperienza e l’interazione con il mondo come fa un bambino, allora la distinzione tra intenzionalità umana e intenzionalità meccanica diventerebbe meno netta. A quel punto potremmo credere che l’arte o le parole di una macchina abbiano un significato reale.
Questa è la prima linea di ragionamento: il riconoscimento come diritto fondato sulla coscienza.
E la seconda linea?
Il riconoscimento per ragioni di efficienza, esattamente come abbiamo fatto con le società. Nel 2016, l’UE ha avanzato, fugacemente, l’idea di concedere una qualche forma di personalità giuridica ai robot più sofisticati. I giuristi hanno inteso “persona giuridica” nel significato di costrutto tecnico, ma il pubblico ha interpretato “persona” nel senso comune e si è lasciato prendere dal panico. La gente temeva una china pericolosa: i diritti inizialmente concessi per utilità — ad esempio per citare in giudizio direttamente un’auto a guida autonoma— avrebbero potuto espandersi fino a diventare diritti politici e costituzionali a tutti gli effetti.
Abbiamo già assistito a questo fenomeno in passato. Nel caso Citizens United, la spesa delle aziende per la pubblicità politica è stata riconosciuta come “libertà di espressione”. Le critiche hanno considerato una farsa affermare che diritti pensati per il benessere degli esseri umani fossero riconosciuti a entità artificiali che mirano alla massimizzazione dei profitti. Le stesse critiche potrebbero essere sollevate contro qualsiasi proposta diretta a riconoscere che l’IA possa avere dei diritti.
In realtà, le recenti azioni legali che coinvolgono l’IA, come quella dei genitori che hanno citato in giudizio un chatbot collegato al suicidio del loro figlio, si basano sulla legge sulla responsabilità del produttore piuttosto che sulla responsabilità dell’IA. Come si concilia questo con il suo ragionamento?
Questo è il caso più semplice. Non si fa causa al robot che assembla una Fiat difettosa, ma all’azienda. Ma potrebbero presentarsi casi più complessi in cui l’entità migliore alla quale attribuire la responsabilità è il sistema di IA stesso. In un caso del genere sarebbe giocoforza tornare a porre il tema della concessione della personalità giuridica all’IA.
Come reagiscono gli studenti a questi due approcci: quello morale e quello dell’efficienza?
Penso che dipenda da come viene suddivisa e presentata la questione. Gli studenti liberali, progressisti e appassionati di fantascienza sono attratti dall’argomento morale: lo vedono come la prossima tappa nel percorso del progresso morale, che estende i diritti al di là della nostra specie. Ma quando presento l’argomento dell’efficienza, ovvero la personalità giuridica dell’IA per analogia con le società per azioni, gli stessi studenti reagiscono con repulsione. Considerano le società per azioni immortali, prive di responsabilità e pericolose. In questo contesto, conferire personalità giuridica all’IA sembra più simile alla creazione di Terminator che a quella di un Martin Luther King digitale.
Nel libro mostro come conservatori e liberali, usando i termini odierni, potrebbero argomentare sia a favore che contro la personalità giuridica dell’IA. Questo cambiamento di attitudine mostra come il contesto alteri fondamentalmente la percezione del fenomeno.
Lei suggerisce che i nostri dibattiti sull’IA ne ripetono di più vecchi, come quelli sull’evoluzione, sulla schiavitù, sulle società.
Esattamente. Gli errori delle critiche rivolte alla possibilità di una IA cosciente rispecchiano quelli delle critiche mosse contro l’evoluzione: generalizzazioni non coerenti, negazione della possibilità che si manifestino cambiamenti, ragionamenti circolari.
Contemporaneamente, il diritto societario dimostra quanto male gestiamo i confini della personalità giuridica. Come detto, alle società sono stati concessi pari tutele giuridiche e libertà di espressione senza articolare un ragionamento realmente coerente. Il punto è che siamo profondamente impreparati, sia dal punto di vista morale che giuridico, a gestire le questioni che l’IA solleverà.
In Europa, gran parte di questo dibattito non è inquadrato in termini di moralità, ma di etica, anche se spesso senza chiarezza su quale etica si intenda. Come vede questa distinzione? A che livello dovrebbero essere prese queste decisioni?
Sono agnostico sulla scelta dei soggetti — tribunali o legislatori— che dovrebbero guidare il processo. Entrambi presentano dei vantaggi. Ciò che conta, tuttavia, è che la legge rifletta il dibattito morale.
Il nostro diritto penale, le nostre difese, i nostri diritti: tutto è plasmato dal mutare delle convinzioni morali. E la moralità non si sviluppa solo nelle aule di giustizia. Si evolve attraverso la cultura, la letteratura, l’arte, l’esperienza vissuta, l’empatia. Il mutare delle nostre opinioni sugli animali o sui diritti LGBTQ+ mostra come i cambiamenti morali rimodellino la legge.
Ma la comprensione della tecnologia stessa non è importante per plasmare questo dibattito morale?
Sì. Eppure gli esseri umani sono incoerenti. Antropomorfizziamo continuamente: parliamo con i nostri Roomba, urliamo alle nostre auto, ci confidiamo con i chatbot. Allo stesso tempo, spersonalizziamo interi gruppi di esseri umani – ebrei, tutsi, o altre persone – per giustificare la crudeltà e persino il genocidio. Momenti come questi sono le parti peggiori della nostra storia. Viviamo tra questi due poli.
La moralità, come suggeriva Adam Smith, spesso inizia con l’empatia: vedere un altro essere come se stesso. Quell’empatia, unita al ragionamento, cambia la società. Col tempo, a mano a mano che più persone interagiscono con IA emotivamente coinvolgenti, ad esempio una nonna che instaura un legame con un robot infermiere, seguirà il dibattito morale.
Ma possiamo fidarci degli scienziati e delle aziende che sostengono che l’IA è cosciente? Hanno interessi in gioco.
Non possiamo prendere per buone sic et simpliciter le loro affermazioni. Gli incentivi economici influenzano sia l’entusiasmo che il rifiuto di affermazioni del genere. Proprio come le aziende esagerano il potere degli algoritmi per attirare gli investitori, esse potrebbero esagerare o minimizzare la possibilità di una coscienza dell’IA per trarne profitto.
Ciò non significa che sia impossibile costruire un’IA cosciente. Presumere che solo il cervello umano possa produrla non è ragionevole. I neuroscienziati che esplorano teorie come il Global Neuronal Workspace o la Integrated Information Theory sostengono che le capacità alla base della coscienza potrebbero, in linea di principio, essere replicate nelle macchine.
Quindi, se un giorno costruissimo una macchina cosciente, perché dovremmo concederle dei diritti?
Se la questione è il potere, potremmo scegliere di non farlo. Ma se la questione è la moralità, se affermiamo che le entità con le qualità A, B, C e D meritano dei diritti, e una macchina mostra quelle qualità, allora la coerenza con i nostri principi impone di riconoscerli.
La moralità si evolve attraverso una complessa interazione tra empatia e argomentazione. È così che gli abolizionisti hanno persuaso le società a rinunciare alla schiavitù: attraverso il ragionamento morale e la narrazione empatica, dalle storie degli schiavi come La capanna dello zio Tom. Probabilmente estenderemo i diritti all’IA attraverso un processo altrettanto non lineare.
Eppure alcuni sostengono che i diritti siano assoluti, dati da Dio.
Rispetto questo punto di vista. Tuttavia, anche se in pratica, i diritti sono costrutti umani, questo non li rende arbitrari o immuni da critiche argomentate. Possiamo negare ingiustamente i diritti, come ha fatto l’America con la schiavitù. Aveva il potere di farlo, ma averlo fatto fu sbagliato.
Per me, l’unica posizione morale coerente è basata su due assunti: in primo luogo, anche se la coscienza è la garanzia morale della personalità, tutti gli esseri umani, indipendentemente dal loro livello di coscienza, rientrano nella cerchia dei diritti. Diritti umani per tutti gli esseri umani. Questo è stato il grande risultato del movimento per i diritti umani del XX secolo, un rifiuto delle distinzioni basate sulla razza, sul sesso e sulla religione, ma anche sulla capacità mentale, un rifiuto del nazismo e dell’eugenetica.
In secondo luogo, tuttavia, dovremmo renderci conto che la ragione generale per cui attribuiamo un diverso livello di rispetto morale e giuridico agli esseri umani è dovuta alle nostre capacità mentali. Se un’entità non umana mostra tali capacità, qualunque esse siano, dovremmo riconoscere anche a lei lo stesso rispetto, altrimenti saremmo degli ipocriti.
Lei scrive anche dei confini sfumati della personalità nei dibattiti sull’aborto, sulla morte cerebrale e persino sui “bodyoid” da utilizzare per il prelievo di organi.
Esatto. Continuiamo a discutere su dove inizi e finisca la vita. Le nostre definizioni di morte sono cambiate nel corso della nostra vita. Le proposte di coltivare corpi umani senza cervello per il prelievo di organi — “bodyoids” — mostrano quanto siano instabili i nostri confini.
Quindi il libro coinvolge diversi ambiti — aziende, animali, specie transgeniche — per chiedere: cosa attiva la nostra disponibilità a riconoscere la personalità e come questi fattori scatenanti potrebbero applicarsi all’IA?
Infine, ritiene che la personalità dell’IA sia inevitabile?
Non inevitabile, ma possibile, quindi dobbiamo prepararci.
È importante capire che la discussione non riguarda solo l’IA. Riguarda anche noi, ciò che rende speciali gli esseri umani e se questa specialità possa sopravvivere al contatto con macchine coscienti.
Questo potrebbe essere un momento nella nostra storia paragonabile all’impatto che la teoria dell’evoluzione ha avuto sugli intellettuali vittoriani. Ha sconvolto la loro intera visione del mondo, la loro percezione del posto dell’umanità nel cosmo, il rapporto degli esseri umani con gli animali non umani.
Ai nostri giorni, il nostro incontro con le IA più sofisticate del nostro futuro, ben oltre i chatbot, potrebbe innescare un processo simile, diretto a riesaminare la nostra coscienza. E per me questa potrebbe essere la cosa più eccitante di tutte.
Possibly Related Posts:
- L’esplorazione di Marte tra scienza e mito
- Il ruolo dell’internet governance: chi decide cosa
- Come funziona la Big Internet, fra architettura, protocolli e governance
- OpenAI ha ammesso di condividere le chat degli utenti con le autorità
- Perché è sbagliato (e pericoloso) imporre il copyright sull’essere umano