Formalmente animata da buone intenzioni, ma più probabilmente preoccupata di non subire azioni legali, OpenAI dichiara di controllare tutte le chat con i propri clienti e di informare le autorità nei casi di pericoli imminenti per altre persone. Con quali conseguenze? di Andrea Monti – Inzialmente pubblicato su Italian Tech – La Repubblica
La notizia è in giro da qualche giorno —risale a un post pubblicato sul blog dell’azienda il 26 agosto 2025 — ma era passata quasi inosservata: OpenAI dichiara candidamente che i propri chatbot controllano le interazioni con gli utenti all’interno di un processo che può concludersi con la segnalazione alle autorità.
Attenzione, però, perché OpenAI limita quest’ultima azione solo se le chat riguardano terze persone. Al contrario, per “rispettare la privacy” dei propri utenti, non informa le autorità dei potenziali casi di autolesionismo limitandosi all’attivazione di una serie di controlli sostanzialmente automatizzati. Più specificamente, nell’ambito della progettazione dei safety-check —i controlli di sicurezza— ChatGPT è stato programmato per fornire risposte amichevoli e non aggressive, oltre che per spingere l’utente a interrompere sessioni troppo lunghe (probabilmente per rompere l’effetto immersivo dell’interazione e consentire alle funzioni razionali di riprendere il controllo della situazione), e per far rinsavire la persona suggerendole di cercare aiuto anche tramite numeri di emergenza e siti internet dedicati.
A cosa servono i controlli
L’obiettivo di questo controllo generalizzato, dichiara OpenAI nel post, è quello di essere genuinely helpful —”sinceramente utili.”
Traducendo dal linguaggio ovattato della comunicazione istituzionale supervisionata da avvocati e consulenti di pubbliche relazioni, il messaggio sembra dire: “abbiamo fatto il possibile” e quindi non abbiamo colpe se dovesse succedere qualcosa”. Se, poi, ci spostiamo in una dimensione più formale, il senso di quel genuinely helpful diventa: “abbiamo giocato d’anticipo per ridurre il nostro coinvolgimento in azioni legali per danni a soggetti terzi, causati dall’uso improprio della piattaforma da parte dei clienti.”
Il perimetro delle responsabilità
Da un punto di vista difensivo la scelta di OpenAI è perfettamente comprensibile e lecita.
Fino a quando un cliente decide di usare un prodotto o un servizio per farsi del male, è affar proprio, mentre se un cliente vuole (o può) far danni a terzi, il problema è (anche) del produttore.
In altri termini, non si può certo incolpare una casa automobilistica se qualcuno decide di usare una vettura per schiantarsi contro un muro. Ciò che conta è che l’automobile sia priva di difetti riconoscibili (non soggetta, cioè, a campagne di richiamo) e che abbia i sistemi di sicurezza previsti dalla legge (ABS, Airbag e gli altri ADAS—i sistemi avanzati di assistenza alla guida) e che dunque non provochi (troppi) danni a chi la usa in modo conforme allo scopo per cui è stata costruita.
Per traslato, dunque, se ChatGPT è progettato per non generare stress in chi lo usa, blocca determinati tipi di richieste e fornisce risultati orientati a tutelare l’utente, OpenAI non può spingersi oltre nel sindacare i comportamenti individuali che vanno oltre l’obiettivo per il quale il chatbot è stato realizzato.
Questo ragionamento, però, funziona se le misure adottate siano effettivamente adeguate allo scopo.
Ancora una volta, il problema è la (non) responsabilità di chi sviluppa software
Tornando al paragone con gli autoveicoli, le caratteristiche tecniche della componentistica di una vettura e le sue prestazioni sono soggette a regole e collaudi prima di essere immesse in circolazione. Di conseguenza, se il prodotto è “conforme”, quando qualcuno si fa male utilizzandolo non c’è responsabilità di chi lo ha costruito.
Questo non accade con i safety-check di OpenAI, ma in generale con qualsiasi software “da scaffale” o utilizzato per erogare servizi di piattaforma. Rimanendo nella comparazione con l’automotive, nel caso del software non ci sono “omologazioni” né specifiche tecniche da seguire per legge, né ingegneri che devono firmare progetti assumendosi le relative responsabilità. A qualsiasi livello, quando il software funziona male il produttore (pardon, l’autore) rilascia il “fix” e avanti fino alla prossima volta, senza che nessuno paghi per le conseguenze del difetto.
Chi paga per i danni causati dal software?
In realtà, almeno dal punto di vista minimo della cosiddetta “responsabilità per fatto illecito”, chi causa un danno deve risarcirlo a prescindere dal modo in cui si è verificato il danno. Che sia imperizia nella guida di un veicolo, o errore di progettazione e realizzazione —anche— del software poco rileva. Ma questa responsabilità generale non è abbastanza stringente e forse, vista la pervasività della digitalizzazione, sarebbe il caso di applicare un regime giuridico più rigoroso anche allo sviluppo di programmi e all’erogazione dei servizi che li rendono possibili. Oggi però non è ancora così, dunque software house e piattaforme possono godere di una non chiarissima situazione normativa che si riflette negativamente sui diritti di ciascuno di noi.
Le conseguenze sistemiche della scelta di OpenAI
Quale che sia la ragione che ha spinto OpenAI a compiere una scelta del genere, ci sono due cose da tenere presente rispetto alla responsabilità per ciò che accade nell’interazione con il suo chatbot. Una riguarda direttamente OpenAI stessa, mentre l’altra coinvolge —in generale— i gestori dei servizi basati su piattaforma o, come si dice, as-a-service.
Il valore potenzialmente vincolante dei post su blog ufficiali
Avendo dichiarato di eseguire questi controlli con dei limiti e delle finalità ben precise, OpenAI assume su di sé la responsabilità contrattuale dell’efficacia delle soluzioni tecniche adottate. In altri termini —e torniamo al paragone con le auto— non basta dire “l’automobile ha la frenata assistita” perché è necessario che questa tecnologia funzioni correttamente.
Quindi, se il sistema per prevenire atti di autolesionismo o a danni di altre persone non funziona, le vittime (o i loro eredi) avranno il diritto di chiedere che venga verificato se, effettivamente, questo sistema era adeguato allo scopo.
Poco importa che, magari, in qualche convoluta perifrasi dei termini e condizioni queste responsabilità sono limitate o addirittura escluse. Le dichiarazioni unilaterali, come appunto quelle formulate da un’azienda tramite i propri canali istituzionali, contribuiscono infatti a determinare il contenuto complessivo degli obblighi che il prestatore di servizi assume nei confronti del potenziale cliente. Non è un caso che, ad esempio, le pubblicità di prodotti finanziari o di farmaci contengano, pur scritte in piccolo o recitate con voce accelerata negli spot radiotelevisivi, l’indicazione che prima di decidere bisogna leggere il prospetto informativo oppure il bugiardino.
Quindi, tornando al punto, delle due l’una: o il post di OpenAI ha effettivamente valore contrattuale, e allora forse, dal suo punto di vista, la toppa è peggiore del buco perché non è detto che la riduzione di responsabilità sia realmente efficace. Oppure è il post è frutto di una ben calibrata operazione di avvocatura difensiva, e allora l’utente danneggiato potrebbe scoprire di avere poco o nulla da rivendicare nei confronti di OpenAI.
Processo vinto, ma fiducia degli utenti, probabilmente, indebolita perché non c’è nulla di peggio dell’essersi fidati di qualcuno per scoprire di essere stati deliberatamente indotti in errore nel pensare che le cose stessero in un certo modo quando in realtà non era così.
Il problema delle check-box
Certo, vale sempre il principio in base al quale prima di firmare un contratto bisogna leggerlo e se si hanno dubbi è necessario rivolgersi a un professionista. Tuttavia, di fronte alla quantità di acceptable user policy, terms&condition, privacy notice e via discorrendo che l’utente deve accettare ogni volta che usa un programma o un servizio, è alquanto irrealistico pensare che si possa chiedere un consulto legale individualizzato. Così, tutte le volte che selezioniamo la check-box con la quale dichiariamo di avere “letto e compreso” le regole per fruire di un servizio, quello che facciamo veramente è rinunciare al diritto di poterci difendere.
L’estensione del controllo sull’attività degli utenti
Da un altro punto di vista, la scelta di OpenAI squarcia il velo di ipocrisia che copre il tema della responsabilità degli intermediari.
Fin dagli inizi delle discussioni giuridiche sulla “responsabilità dei sysop”, risalenti a trent’anni fa, uno schieramento sosteneva la tesi del “non poter sapere” cosa accade in un sistema (all’epoca si parlava di semplici BBS) e l’altro affermava che l’amministratore della macchina “non potesse non sapere” o, in ogni caso, che avrebbe dovuto sapere quello che facevano gli utenti.
La soluzione di compromesso arrivò nel 2000 con la direttiva ue sul commercio elettronico: il prestatore di servizi non ha un obbligo di controllo preventivo degli utenti, ed è responsabile di ciò che accade solo se, a vario titolo “interviene” su quello che le persone fanno tramite le piattaforme o se viene a conoscenza —in qualsiasi modo— di attività illecite e non si attiva per fare qualcosa.
A lungo, e ancora oggi, le piattaforme utilizzano queste norme per limitare le proprie responsabilità sostenendo, ma sempre con minore convinzione, di essere degli intermediari puri e che, appunto, per non violare privacy e libertà di parola non sorvegliano i propri utenti.
Tuttavia, è un fatto pacifico, dimostrato dalla profonda capacità di profilazione, che le grandi piattaforme abbiano le risorse tecnologiche per controllare ciò che accade sui propri sistemi. È altrettanto pacifico, come dimostra la personalizzazione dei contenuti, che l’intermediario si inserisce attivamente nella fruizione del servizio da parte degli utenti. Di conseguenza un soggetto concretamente in possesso di queste capacità non dovrebbe potersi avvalere della generale esenzione di responsabilità consentita dalla direttiva e-commerce.
Questo spiega perché, da tempo, la seconda linea difensiva si stata costruita attorno al principio —come detto, vecchio di trent’anni— del “tecnicamente impossibile”. Ma se fino ad ora questa linea ha retto agli attacchi di politici, legislatori e giudici non è detto che possa continuare a resistere dopo l’uscita pubblica di OpenAI.
La fine delle esenzioni automatiche di responsabilità
La dichiarazione di OpenAI chiude, infatti, una fase storica: quella in cui le piattaforme potevano più agevolmente dichiararsi neutrali e dunque non responsabili invocando l’impossibilità tecnica. Quelle che possono filtrare, segnalare, prevenire, allora possono anche rispondere giuridicamente se questi strumenti funzionano male, sono mal costruiti o sottodimensionati.
La privatizzazione dei diritti e della prevenzione
Da tempo, testimone la resa della ue formalizzata dal regolamento sui servizi digitali, Big Tech ha assunto il potere di decidere cosa sia un diritto e come debba essere esercitato. Ora, è stato compiuto un passo ulteriore che va dalla normazione alla prevenzione: quello di consentire che un soggetto privato decida quando e quanto un comportamento deve essere considerato pericoloso. In altri termini, il punto non è se OpenAI —o qualsiasi piattaforma— segnalino o meno determinati eventi. Il punto è chi li ha autorizzati a farlo, in base a quali criteri e con quale controllo pubblico.
Forse le piattaforme operano davvero “per il nostro bene”. Ma se il bene è deciso unilateralmente da un’azienda privata, valutato da un automatismo e giustificato con un post sul blog, allora è lecito chiedersi per il bene di chi accade tutto questo.
Senza risposte a queste domande, essere genunely helpful resterà solo uno slogan —e un coniglio, da tirare fuori astutamente dal cappello, nel bel mezzo di un’aula di giustizia.
Possibly Related Posts:
- Il ruolo della stablecoin basata sullo Yuan nella strategia cinese globale
- Dati personali: un mutaforma che cambia a seconda di chi li usa
- Webcam violate: la fragilità nascosta del nostro mondo connesso
- Google non dovrà vendere Chrome. Ma non è Chrome a fare il monopolio di Google
- Ripubblicazione di foto e contenuti: il problema non è il consenso ma la violazione della dignità