Nel 2003, commentando i lavori della “Commissione open-source” istituita dal governo in carica, scrivevo sulla gloriosa (e purtroppo defunta) rivista Linux&C: “Si stanno creando generazioni di analfabeti funzionali asserviti all’uso acritico di una sola piattaforma. Utenti che utilizzano già dei sistemi senza alcuna consapevolezza di ciò che stanno facendo. E così, quando il correttore ortografico dirà che la parola “democrazia” non è presente nel vocabolario, senza farsi domande smetteranno semplicemente di usarla. E di pensarla.” di Andrea Monti – Inizialmente pubblicato su Strategikon – un blog di Italian Tech
Sono passati esattamente vent’anni e queste parole sono ancora di straordinaria attualità se applicate a quello che sta succedendo, sotto gli occhi e nella sostanziale indifferenza, di tutti, con le AI generative.
All’epoca, ci preoccupavamo della perdita di controllo sulla conoscenza della propria lingua madre causata dalla pigrizia acritica nell’uso dei correttori ortografici e grammaticali. Certo, erano poco più che giocattolini rispetto a quello che è possibile fare oggi, ma il tema dell’appropriazione della lingua —e dunque delle idee— da parte di imprese private è assolutamente lo stesso.
l’AI di Microsoft, ChatGPT/Dall-E 3 e Stable Diffusion 2.0 sono solo alcuni degli esempi di come le attività di filtering applicate nella fase di costruzione di un modello di AI generativa si traducano in interventi che vanno dall’applicazione acritica di regole degne della più cieca burocrazia ad azioni di vera e propria censura preventiva.
Un esempio del primo caso è il rifiuto di generare immagini che rappresentano contenuti protetti da diritto d’autore. In più di un’occasione, usando (a pagamento) la piattaforma di OpenAI mi sono sentito rispondere che il prompt inserito faceva riferimento a opere protette e che quindi non era possibile elaborarlo. Peccato che la mia richiesta fosse del tutto legittima e legale perché avrei voluto utilizzare le immagini nel mio corso di digital law— e dunque nell’esercizio dei cosiddetti “usi liberi” consentiti persino dalla legge statunitense.
Il punto, per essere chiari, non è rivendicare il diritto a violare il diritto d’autore, ma quello di poter esercitare tutte le prerogative legittime garantite dalla legge. Se, in altri termini, ChatGPT deve essere costruito per rispettare la legge sul diritto d’autore, deve rispettarla integralmente consentendo anche l’esercizio degli usi liberi e non limitandosi a tutelare gli interessi dei titolari dei diritti.
Un esempio del secondo caso è quello che si è verificato, in un’altra occasione, quando chiedendo a Dall-E di generare un “head shot”, mi sono visto contestare l’uso di un linguaggio inappropriato. Peccato che “head shot” sia un termine del tutto lecito e inoffensivo perché identifica una particolare inquadratura ideata per i ritratti e non, come hanno ritenuto la stupida moderazione automatizzata del software o la scelta a monte di chi lo ha programmato, “colpo in testa”.
Dei due scenari, questo è il più simile a quello che ipotizzavamo vent’anni fa sull’impatto dei correttori ortografici e senz’altro il più pericoloso: la scelta di “filtrare” non solo i dati sui quali viene addestrato un modello per condizionarne i risultati ma anche quella di “moderare” i prompt rappresentano una inaccettabile limitazione preventiva della libertà di manifestare il proprio pensiero.
Certo, questi sistemi possono essere usati per violare leggi e diritti ed è fuori discussione che entrambi vadano tutelati anche sanzionando chi non li rispetta. Ma questo non può accadere in modo preventivo, generalizzato e soprattutto in rapporto non a contenuti “illeciti” (sul cui bando pure si potrebbe discutere) ma a quelli del tutto legali ipocritamente qualificati “inappropriati” sulla base di “valori etici” non si sa bene imposti da chi o in nome di cosa (con l’eccezione di quei luoghi nei quali vige la teocrazia, e dunque dove non c’è differenza fra etica e legge).
L’aspetto più disturbante di questa censura preventiva —by default e by design, come direbbero gli esperti di protezione dei dati personali— è che viene praticata non sulla base di una indicazione di Stati o di governi, come per esempio in Cina, ma da aziende private che più dei diritti di persone e imprese si preoccupano dei rischi di critiche da parte dei media, shitstorm e azioni legali promosse da individui o autorità di controllo come i garanti dei dati personali europei.
Siamo, dunque, di fronte all’ennesimo esempio di come le Big Tech si sono appropriate del diritto di decidere cosa sia un diritto e di quello di decidere come debba essere esercitato, al di fuori e al di sopra di qualsiasi dibattito pubblico.
Questa deriva di compressione sistematica dei diritti garantiti dalla Costituzione è frutto della sostituzione della cultura della sanzione con quella del divieto.
Una grande conquista del diritto (penale) liberale è il concetto che la libertà dell’uomo si estende fino al punto di poter violare i diritti altrui, ma che ogni violazione deve essere punita. La legge non “vieta” di uccidere, ma punisce chi lo fa. È la differenza sostanziale fra l’imposizione etico-religiosa che si applica “a prescindere”, e un principio di libertà in nome del quale una persona deve accettare di poterla perdere se sceglie di non rispettare le regole.
Certo, un’AI generativa “senza mutande” può a volte imbarazzare come il David di Michelangelo in Giappone o le statue dei Musei Capitolini durante una visita di autorità straniere, ma le conseguenze dell’uso di questo strumento sono solo ed esclusivamente frutto (e responsabilità) delle scelte di chi lo utilizza. Applicare una giustizia preventiva —e per di più privata— è un modo per deresponsabilizzare l’individuo e radicare il concetto che il rispetto dei diritti, compresi soprattutto quelli delle vittime, possa essere esercitato da e tramite una macchina, senza che nessuno possa farci nulla.
“Computer says no”, rispondeva invariabilmente la Carol Beer di Little Britain, ad ogni richiesta dei propri clienti; ma dopo quasi vent’anni, quella che all’epoca era “soltanto” una sferzante critica ai costumi britannici si è rivelata una predizione accurata e distopica del mondo che stiamo lasciando ad altri costruire.
Possibly Related Posts:
- TeamLab Planets: da Tokyo la fuga verso i mondi della mente
- Chi ci protegge dal dossieraggio tecnologico?
- Webscraping e Dataset AI: se il fine è di interesse pubblico non c’è violazione di copyright
- Perché Apple ha ritirato la causa contro la società israeliana dietro lo spyware Pegasus?
- Le sanzioni UE ad Apple e Google aprono un altro fronte nella guerra contro Big Tech (e incrinano quello interno)