Un tribunale della Georgia ha stabilito l’ovvio, e cioè che i risultati forniti da un chatbot non vanno necessariamente presi sul serio. Ma le cose non sono così semplici di Andrea Monti – Inzialmente pubblicato su Italian Tech – La Repubblica
Il 19 maggio 2025 il tribunale della contea di Gwynnett, in Georgia (USA) ha emesso una sentenza che, in estrema sintesi, stabilisce la non responsabilità di OpenAi per le allucinazioni di ChatGPT.
Che cosa è successo
Mark Walters, un noto commentatore radiofonico statunitense, ha promosso l’azione legale essendo stato citato in un articolo come responsabile di un’appropriazione indebita a danno di una fondazione che sostiene il Secondo Emendamento della Costituzione americana (quello sull’uso delle armi).
La fonte della notizia era un’allucinazione di ChatGPT che era stata impiegata dall’autore del pezzo per ottenere una sintesi del ricorso presentato da questa fondazione contro il procuratore generale dello Stato di Washington.
Sebbene l’autore dell’articolo, già utente di ChatGPT, fosse a conoscenza del fatto che il software non forniva necessariamente risultati corretti, avesse ricevuto gli avvisi forniti dalla piattaforma e potesse rendersi conto della palese incoerenza di alcuni passaggi del testo, aveva deciso di pubblicare il pezzo senza effettuare alcun ulteriore controllo.
Cosa ha deciso la corte
In primo luogo, la corte ha ritenuto che per essere diffamatoria, un’affermazione deve contenere dichiarazioni sul diffamato che appaiano, in prima battuta, vere o che riferiscano fatti dei quali il diffamato sarebbe stato parte.
Inoltre, ha specificato che la presenza di avvisi sulla potenziale inattendibilità delle informazioni prodotte —come nel caso di ChatGPT— impone all’utente una maggiore cautela prima di prendere per buoni i risultati.
In terzo luogo, ed è certamente la parte più interessante della decisione, la corte stigmatizza il comportamento del giornalista (soggetto diverso dalla persona che si riteneva diffamata), evidenziandone la negligenza consistita nel “forzare la mano” al software pur di ottenere il risultato, e nel non avere preso in considerazione i palesi errori contenuti nella risposta
Perché questa sentenza è importante
I principi di diritto applicati dal tribunale della Georgia sono chiari e —per certi versi— banali.
La responsabilità è collegata la modo in cui è costruito il modello
Il primo è che per esserci diffamazione ci vuole la consapevolezza di offendere la reputazione altrui tramite la comunicazione di notizie false. I risultati prodotti da ChatGPT e oggetto della causa erano certamente falsi, ma non per questo si può affermare che OpenAI abbia voluto crearli come tali per commettere un illecito —o che abbia addestrato in modo negligente il modello.
Questo è un tema fondamentale perché, anche se la sentenza non lo dice, stabilisce il confine della responsabilità di chi sviluppa una piattaforma AI.
Analogamente ai criteri previsti per la responsabilità degli internet provider —che non “pagano” per i comportamenti degli utenti se rimangono neutri rispetto al loro comportamento— una piattaforma addestrata senza applicare “standard etici” o altre forme di intervento sui risultati può certamente invocare la propria neutralità. Viceversa, l’uso di dati inattendibili, un allineamento errato, un controllo preventivo dei prompt o l’adozione di altri safety check che intervengono sui risultati potrebbero generare una (co)responsabilità del gestore della piattaforma perché, appunto, si “intromette” fra l’utente e il software.
L’utente deve fornire la prova della negligenza della piattaforma
Nel dare torto al presunto diffamato, la corte ribadisce un principio che vale anche in Italia: chi accusa deve provare. Nel caso specifico, il presunto diffamato non ha fornito alcuna prova del comportamento negligente di OpenAi e dunque la sua pretesa risarcitoria non poteva essere presa in considerazione.
Il problema, tuttavia è proprio questo: come è possibile fornire una prova del genere senza avere accesso a informazioni riservate, oggetto di proprietà intellettuale e, in ogni caso, comprensibili solo tramite costose perizie che certamente pochi potranno permettersi?
Stando così le cose è altamente improbabile che qualche Big Tech —o anche piccole startup— possano essere chiamate a rispondere per i danni che provocano.
Una soluzione sarebbe quella di prevedere la cosiddetta “inversione dell’onere della prova”: se si verifica un danno è chi fornisce il servizio di piattaforma a dover dimostrare di avere fatto il possibile per evitarlo e non la vittima a dare la prova della negligenza del gestore della piattaforma. Questo principio già vale per l’esercizio di attività pericolose come, per esempio, la guida di autoveicoli o la gestione di impianti nucleari. Quindi il punto non è il se si può fare ma se si vuole.
L’utente è il responsabile dell’utilizzo delle informazioni fornite dal software
Il terzo punto, altrettanto importante, fissato dalla sentenza è che l’utente non è esentato dal dovere di valutare criticamente le risposte fornite dalla piattaforma —e, si potrebbe generalizzare, dai software.
Il modo di funzionare dei servizi tipo ChatGPT è chiaramente descritto come non in grado di fornire risultati precisi, e dunque più simile a un oracolo che al detentore di una verità rivelata. Tuttavia, gli utenti si ostinano a usare queste piattaforme per avere delle risposte che però non necessariamente sono in grado di essere comprese.
Quindi, si deduce dalla sentenza della corte americana, se l’utente fa una domanda ma non è in grado di capire la risposta e la utilizza, si assume in proprio la responsabilità delle conseguenze della scelta senza poterla scaricare sul servizio.
Questa indicazione è fondamentale anche e soprattutto per l’applicazione del regolamento europeo sull’AI perché riequilibra uno storico sbilanciamento nella responsabilità per danni derivanti dal trattamento dei dati, che vuole l’utente “parte lesa” di default, senza prendere in considerazione le sue eventuali negligenze.
I rischi dell’AI Washing
Nello stesso tempo, però, questo principio di diritto significa pure che chi produce o commercializza chatbot e simili deve essere molto attento a come gestisce l’AIwashing. Affermazioni tranchant sul ruolo dell’AI nella funzionalità di un prodotto, invocazioni sulle prestazioni superiori garantite dall’intelligenza artificiale o altri marketing claim che inducono aspettative nel cliente possono poi tornare indietro come un boomerang quando fossero oggetto di un’azione legale.
Bisogna, infatti, ripetere che OpenAI se la è cavata per il modo in cui ha gestito la comunicazione con i clienti, i disclaimer forniti agli utenti e gli avvisi forniti dal chatbot. Al contrario, se avesse lasciato intendere che la piattaforma produceva risultati corretti il processo avrebbe probabilmente preso una strada molto diversa.
Liberi tutti (i produttori di AI)?
No, non si può interpretare questa sentenza come un “liberi tutti” ma, al contrario, come un’indicazione chiara di quali devono essere i modi per sviluppare e mettere in circolazione una piattaforma che fornisce informazioni agli utenti.
Perché il “meglio chiedere scusa che permesso” non dovrebbe più essere un metodo accettabile per scaricare sulle persone le conseguenze delle proprie strategie industriali.
Possibly Related Posts:
- Svolta del Tribunale di Milano: pubblicare le foto dei figli minorenni può essere reato
- Il ruolo geopolitico dell’IOMed a trazione cinese
- Il caso Garlasco riapre il dibattito su scienza, tecnologia e ruolo del giudice
- La Corte costituzionale apre la strada al transumanesimo?
- C’è ancora una possibilità per opporsi al trattamento dei dati per addestrare l’IA di Meta