Secondo il New York Times, Google avrebbe segnalato a una hotline antisfruttamento minorile la foto di un bambino transitata sui propri sistemi ma inviata dal padre a un medico per avere un consulto. Oltre alla segnalazione, Google avrebbe disattivato l’account del genitore e rifiutato di rivedere il caso, pur avendo ricevuto spiegazioni e chiarimenti. Inevitabili, da più parti, le reazioni sdegnate per quello che a tutti sembra un abuso privo di qualsiasi giustificazione di Andrea Monti – Inizialmente pubblicato su Strategikon – un blog di Italian Tech.
La difesa di Google si è basata su due argomenti. Il primo: si, usiamo “intelligenza artificiale” ma ci sono anche esseri umani coinvolti nella decisione; il secondo: c’è una legge che ci impone di eseguire queste segnalazioni. Entrambi le difese, tuttavia, sono abbastanza fragili.
Perché le ragioni di Google non reggono
La prima perché l’utilizzo di sistemi automatici in un processo decisionale priva l’operatore umano del proprio ruolo. Quante volte, di fronte a una segnalazione, l’addetto alla verifica si prenderà la responsabilità di scartarla visto che, invece, “qualcuno” —o meglio, “qualcosa”— più in alto di lui gli ha detto che è brutta, cattiva o contro la legge? La questione non riguarda solo questo caso, ma tutti quelli nei quali, in modo irresponsabile, si vuole introdurre il “poliziotto” —o peggio, il “giudice”—automatico. Specie quando il numero dei casi da rivedere è elevato, difficilmente l’intervento umano farà la differenza.
Il che ci porta alla debolezza della seconda difesa. Veramente la legge americana impone la segnalazione anche di immagini “neutre” —come quella inviata al pediatra— e dunque non chiaramente qualificabili come pedopornografiche? Non è così.
Escludendo casi palesi nei quali il significato di un’immagine non ammette dubbi, in molti altri casi è l’occhio di chi guarda a connotare semanticamente il contenuto. Così, per esempio, l’immagine di un corpo dissezionato può sembrare raccapricciante se scambiata in un gruppo di necrofili, oppure normale, nella sua drammaticità, se oggetto di condivisione fra medici legali che stanno eseguendo un’autopsia.
L’insensatezza di un automatismo legale
Molti altri potrebbero essere gli esempi, ma il concetto è chiaro: non può esistere un automatismo legale fra la natura di un’immagine e l’obbligo di segnalazione. Infatti, la norma di riferimento, l’articolo 2258A dello US Code non prevede l’obbligo attivo di ricerca di contenuti illegali, ma soltanto quello di segnalazione alla CyberTip Line, testualmente, “dopo avere avuto effettiva conoscenza” della cosa.
Tradotto: non è obbligatorio per il provider ricercare attivamente contenuti illeciti e prima di procedere a qualsiasi segnalazione deve essere valutata la liceità o meno del contenuto. Il che implica la necessaria presenza non solo e non tanto di un’operatore umano ma di qualcuno che sia in grado di eseguire valutazioni complessive, anche di tipo legale.
Inoltre sia il National Center for Missing & Exploited Children sia la CyberTip Line (espressamente indicata dalla legge) non sono enti governativi o uffici giudiziari ma —come si legge sul loro sito— ‘a private, non-profit 501(c)(3) corporation’ parzialmente finanziata dal Dipartimento della giustizia americano il quale, però, non è responsabile né condivide necessariamente il contenuto, le infrastrutture tecniche, le policy e qualsiasi servizio o strumento messo a disposizione (this Web site (including, without limitation, its content, technical infrastructure, and policies, and any services or tools provided)’.
Quel pre-tribunale finanziato dagli Stati Uniti
Con una scelta ponziopilatesca, dunque, le strutture pubbliche americane finanziano una sorta di pre-tribunale privato ma non si assumo alcuna responsabilità per il suo operato. L’approccio in termini di public policy è diametralmente opposto a quello della direttiva 31/00 —recepita in Italia con il d.gls. 70/2003— che impone ai provider l’obbligo di coinvolgere immediatamente e direttamente la magistratura.
Purtroppo, anche nella UE le politiche stanno cambiando. L’impostazione americana del ricorso a intermediari privati nel contrasto ai contenuti illegali, è stata recepita anche dall’Unione Europea che è andata addirittura oltre. Se, infatti, la normativa USA ha creato una sorta di pre-tribunale, quella comunitaria spinge per la creazione di un sistema di pre-polizia chiamato trusted flagger.
Si tratta di un sistema di delazione —nel significato originale del termine— in base al quale soggetti privati sono, in sostanza, autorizzati a sostituirsi alla magistratura e alle forze di polizia nella ricerca di contenuti illeciti e a segnalarli a piattaforme e provider le quali a propria volta dovranno intervenire o informare le autorità.
A questo va aggiunto l’interesse cross-oceanico per aggirare la end-to-end encryption (la cifratura dei contenuti sul proprio terminale, prima dell’invio) tramite l’adozione generalizzata di un sistema di client/cloud side scanning cioè della perquisizione sistematica e generalizzata di quanto contenuto sia nel singolo device, sia nei backup “in cloud”. Qualche tempo fa Apple aveva annunciato un progetto del genere, poi sospeso per via delle polemiche ma non definitivamente abbandonato.
Manco a dirlo —e questa volta, pure, con qualche ragione— contro questi progetti sono insorti gli zelanti sacerdoti della privacy che, tuttavia, omettono di considerare l’impatto dei cambiamenti strutturali causati dalla diffusione incontrollata di tecnologie e servizi sotto l’esclusivo controllo di imprese private.
La criminogena diffussione verso il basso di conoscenza e tecnologia
Come ho scritto in un altro articolo, la diffusione verso il basso di conoscenza e tecnologia è intrinsecamente criminogena e lo Stato —gli Stati— non hanno abbastanza risorse per perseguire se non tutti almeno una parte significativa degli illeciti commessi quotidianamente. Piaccia o no, il ricorso a sistemi automatizzati è pragmaticamente inevitabile e non perché siano “migliori” o “infallibili” ma perché non ci sono alternative. Serve qualcosa che faccia il lavoro di sgrossatura che, per definizione, non può essere raffinato. E quando questi sistemi sbagliano, vale il principio capitolino secondo il quale a chi tocca nun se ‘ngrugna.
Tuttavia, se proprio si deve procedere all’automatizzazione dell’accertamento delle responsabilità individuali allora dovrebbero essere stabiliti dei contrappesi precisi ed efficaci nei confronti di chi sbaglia.
Specie quando ci sono di mezzo reati infamanti, non è tollerabile che vada impunita la negligenza di qualche operatore in qualche remoto data-centre o, peggio, dell’autore di “algoritmi di intelligenza artificiale”. Un minimo errore statistico potrà anche essere accettabile dal punto di vista dei numeri, ma in casi del genere questo si traduce nella distruzione della vita di persone innocenti.
È inevitabile che questo accada, perché la perfezione non è di questo mondo e di errori giudiziari ce ne sono già troppi senza il bisogno di qualche astruso automatismo. Ma non è la macchina a far paura, quanto piuttosto l’ipocrisia degli esseri umani che hanno trovato il modo di scaricare il peso della responsabilità di una scelta, buttandolo sulle spalle di un software al quale dare, addirittura, lo stato giuridico di persona.
Lunga vita a Carol Beer e al suo Computer says no!
Possibly Related Posts:
- TeamLab Planets: da Tokyo la fuga verso i mondi della mente
- Chi ci protegge dal dossieraggio tecnologico?
- Webscraping e Dataset AI: se il fine è di interesse pubblico non c’è violazione di copyright
- Perché Apple ha ritirato la causa contro la società israeliana dietro lo spyware Pegasus?
- Le sanzioni UE ad Apple e Google aprono un altro fronte nella guerra contro Big Tech (e incrinano quello interno)