Un caso tragico che coinvolge l’uso di un chatbot pone una domanda urgente: non sull’AI in sé, ma sulla deresponsabilizzazione sistemica di chi la progetta e la distribuisce di Andrea Monti – Inizialmente pubblicato su Italian Tech – La Repubblica
La notizia del suicidio di un adolescente che si era “confidato” con ChatGPT non è, purtroppo, il primo caso del genere. Già lo scorso dicembre 2024 un’altra AI Company, Character.ai era stata portata in giudizio dai genitori di un ragazzo che avrebbe compiuto un gesto estremo su impulso del chatbot iperantropomorfizzato che stava usando.
Questi due casi, come quelli meno gravi ma non meno preoccupanti di persone che si rifugiano in un’interazione finta e apparentemente tranquillizzante, vanno contestualizzati nel fenomeno per cui i chatbot vengono utilizzati, contro ogni logica e razionalità, come confidenti, mentori e, in qualche caso, come veri e propri “partner”.
A parte gli aspetti psico(pato)logici di fenomeni del genere che sono il riflesso del più generale distacco dalla realtà indotto da relazioni tecnologicamente mediate e, come rileva Simon Gottschalk della Nevada University, dall’infantilizzazione della cultura occidentale, è utile affrontare il tema anche da un punto di vista giuridico.
La “responsabilità dell’AI” e il problema dell’antropomorfizzazione
L’AI è un software e in quanto tale non ha “soggettività” né “coscienza”. Il fatto che possa funzionare con un elevato livello di autonomia e replicare manifestazioni (apparentemente qualificabili come) cognitive non cambia i termini della questione: il fatto di funzionare in un certo modo non incide sulla natura inanimata di un software.
Questi concetti sono facilmente comprensibili quando pensiamo a un programma per la videoscrittura o per la gestione del routing dei pacchetti IP che rimbalzano in modo (apparentemente) caotico da una parte all’altra della Big Internet. Ma quando si passa ai chatbot la spinta irrazionale a voler credere di avere a che fare con un “essere” e non con un oggetto è troppo forte e quindi cambia il modo in cui un numero sempre crescente di persone si relaziona con questa tecnologia. Non stupisce, quindi, che questa dimensione pisco(pato)logica spinga gli individui —ma purtroppo anche politici e legislatori— a ipotizzare delle “responsabilità dell’intelligenza artificiale” come nel caso paradigmatico del regolamento europeo sull’AI e delle sue improbabili classificazioni basate su non meglio definiti “criteri di rischio”.
Non serve l’AI per causare danni alle persone
La storia dell’informatica è piena di eventi anche tragici —dal disastro del Boeing 737 Max al caso Royal Mail— causati da errori di software che, per contrappasso rispetto all’AI, potremmo definire “stupidi”. Ma proprio perché anche (e soprattutto) il funzionamento di programmi “normali” può causare conseguenze irreparabili dovremmo una volta e per sempre fare pace con il fatto che se un software “sbaglia” vuol dire che è stato costruito male.
Va da sé, quindi, che a pagare le conseguenze del “comportamento” del software dovrebbe essere qualcuno da selezionare fra chi lo ha costruito, collaudato, scelto di metterlo in commercio e venduto ai clienti finali. Né più né meno di quello che accade con qualsiasi prodotto che viene immesso sul mercato, dal bullone ai sistemi di protezione termica dello Space Shuttle. E qui arriviamo al nodo cruciale della vicenda.
Le responsabilità sono delle AI company, non dell’AI
Il fatto che un chatbot debba essere considerato un prodotto è il filo rosso che lega diverse azioni legali che, negli USA, stanno coinvolgendo le AI company. Che si tratti di prodotti che avrebbero istigato al suicidio, prodotti che non sarebbero intervenuti in caso di comportamenti pericolosi, o di prodotti che forniscono risultati inattendibili, il tratto comune è, appunto, il modo in cui questi software sono stati realizzati. Questa la linea di attacco scelta dai legali di chi afferma di avere subito danni dal funzionamento di chatbot e simili. Dunque, posta in questi termini, la questione si sposta dalla inesistente “responsabilità del chatbot” alla possibilità di configurare quella di chi lo ha costruito senza prevedere “adeguate misure di sicurezza”.
Il ruolo dei safety-check
In realtà, i chatbot sono dotati di misure di sicurezza nella forma di “safety-check” —un insieme di tecniche e metodi che impediscono al chatbot di rispondere in un certo modo, o che bloccano la risposta prima che venga comunicata all’utente. Il punto è, allora, capire quanto sono, o devono essere, efficaci questi controlli perché è su questo che si misura la responsabilità della filiera.
Questo è un tema centrale nello sviluppo, in particolare, dei chatbot perché la presenza dei safety-check da un lato limita fortemente la possibilità di usare efficacemente i LLM in “libera vendita” in ambiti come quello giudiziario, ma dall’altro rappresenta l’applicazione del principio generale previsto in tutti gli ordinamenti in base al quale, a prescindere da cosa si fa, si deve evitare di causare danni.
Il limite dei safety-check
Se, tuttavia, da un lato i safety-check sono un modo per rispettare l’obbligo di non far danni, dall’altro (e proprio per questo) il modo in cui sono realizzati rappresenta il confine della responsabilità. In altri termini, non basta prevedere un controllo di sicurezza ma è necessario che questo controllo sia efficace. Usando un paragone abusatissimo nel mondo delle tecnologie dell’informazione, quello con le automobili, non basta dire che la vettura ha i freni, ma bisogna anche costruirli in modo che funzionino correttamente.
Nel caso dei chatbot questo obbligo è molto complesso da rispettare per via della molteplicità di utilizzo di piattaforme del genere. Inoltre, in assenza di indicazioni esplicite, il concetto di safety è spesso applicato più per evitare guai giudiziari al produttore che a tutelare l’utente da quello che potrebbe accadergli usando il software. Questo è evidente nella cura che viene riservata all’evitare che il chatbot risponda in modo lecito ma “inappropriato”, qualsiasi cosa questo voglia dire.
Il comparto industriale ha regole molto severe e complesse da osservare quando si parla di componentistica, apparati e macchine complesse, ma quando si passa ai software (di qualsiasi tipo) non vengono applicati gli stessi criteri. Anzi, al contrario, sono del tutto standard le clausole con le quali, pur se in termini diversi, le licenze d’uso dichiarano senza problemi che il software non è garantito per usi specifici, che non va utilizzato in ambiti critici o pericolosi, e che viene fornito “as is” —così come si trova.
L’inganno della licenza d’uso
In altri termini, con la scusa della licenza —si, perché nella UE il software è considerato non un prodotto ma, come la Divina Commedia, un’opera creativa— il produttore, pardon, l’autore, si scarica di ogni responsabilità per quello che accade usando un programma. Si tratta di clausole che in un processo potrebbero essere contestate abbastanza agevolmente, ma quante persone investiranno tempo e soprattutto soldi per un risultato del genere? Meglio aspettare la prossima versione del software che promette di eliminare i bug e mettere a disposizione nuove ed eccitanti funzionalità, tanto nessun aggiornamento eliminerà mai la deresponsabilizzazione di chi lo vende.
Questo vuol dire che la AI company sono, essenzialmente, impossibili da coinvolgere per i danni provocati dai prodotti —pardon, dalle opere creative— che mettono o fanno mettere a disposizione degli utenti finali? No, certo, ma vuol anche dire che arrivare ad affermare una qualche responsabilità diretta è molto più difficile perché bisogna superare la parete impervia delle condizioni di licenza che scaricano sull’utente tutte le responsabilità per l’uso di un software.
Sottrarre il software al diritto d’autore
Casi, pur tragici, come quelli dei quali ci stiamo occupando dimostrano le conseguenze negative dell’ostinarsi a considerare i chatbot come entità coscienti e perpetuano l’atteggiamento sbagliato di concentrarsi sul caso singolo invece di affrontare il problema in termini sistemici.
Il nodo da sciogliere è chiaro: il software non può più essere considerato un’opera protetta dal diritto d’autore ma deve essere considerato un prodotto.
Le conseguenze sono altrettanto nitide: il produttore (ex-autore) deve fornire precise garanzie ed assumersi precise responsabilità per l’immissione sul mercato di prodotti difettosi.
Il perché nella UE questo non verrà fatto è, infine, anch’esso lapalissiano: basta vedere in quale nazione hanno la propria sede legale quelle aziende che controllano il mercato mondiale del software e dell’AI.
Possibly Related Posts:
- Perché è sbagliato (e pericoloso) imporre il copyright sull’essere umano
- Jean Pormanove e la morte in diretta: quando la libertà diventa spettacolo estremo
- I pericoli dell’autosorveglianza: il caso De Martino e la vulnerabilità della “casa digitale”
- Dal lutto al business: AI, chatbot, dati personali e la promessa dell’immortalità
- GPT-OSS com’è il modello “open-weight” (che non vuol dire affatto open source) di OpenAI