I suggerimenti visualizzati nella barra di ricerca non sono riferibili a Google in quanto tale e dunque non fondano una sua responsabilità. Ma il tema è più complesso e il tribunale non lo affronta
di Andrea Monti – PC Professionale Maggio 2013
Con l’ordinanza cautelare del 25 marzo 2013 il tribunale di Milano ha stabilito che Google Inc. (la società che “possiede” il motore di ricerca) non è responsabile per i risultati preliminari proposti dalla funzionalità “autocompletamento” che entra in funzione quando l’utente comincia a scrivere la query nella barra di ricerca. Anche se è molto argomentata, questa decisione non è condivisibile perché, in sostanza, stabilisce la non responsabilità per chi scrive software senza preoccuparsi delle conseguenze del suo funzionamento.
A interessare del caso il tribunale civile di Milano sono state due associazioni no-profit attive nel settore della tutela dell’infanzia che si lamentavano del fatto che il nome delle associazioni veniva automaticamente associato, su Google, alle parole “setta”, “truffa” e “plagio” e che solo da poco tempo (rispetto alla presentazione del ricorso) Google Inc. aveva “disassociato” i termini in questione dal nome delle due organizzazioni no-profit.
Il fondamento della causa, a dire dei ricorrenti, era il fatto che la funzione “autocomplete” di Google genera un contenuto aggiuntivo rispetto al semplice risultato di una query, vale a dire il suggerimento. Dunque, ragionano i ricorrenti, se tramite autocomplete Google produce un contenuto originale allora diventa fornitore di contenuti e come tale è sottoposto alla direttiva europea 31/00 e dunque al decreto legislativo 70/2003 che la recepisce in Italia. Di conseguenza, alla luce di questa normativa, è possibile chiedere al giudice italiano di emanare un provvedimento di urgenza per far cessare, nel caso specifico, le azioni diffamatorie tramite rimozione dalle proprie interfacce di ricerca, in
particolare nei servizi di “Autocompletamento” e “Ricerche Correlate” dell’associazione tra i nomi “Patrizio Paoletti” e “Fondazione Patrizio Paoletti” con la parole “Truffa”, “Plagio” e “Setta” o derivati e sinonimi.
Il tribunale ha rigettato il ricorso sulla base di queste principali argomentazioni:
1 – Google non è un fornitore di contenuti perchè il supporto alla ricerca è una funzionalità di sistema e non un “contenuto” vero e proprio,
2 – “Autocomplete” è un algoritmo che funziona su basi statistiche, senza un intervento diretto di Google,
3 – i suggerimenti per la ricerca che compaiono alla fine della pagina che contiene l’output della query sono volatili, non organizzati permanentemente e non influenzati da Google,
4 – il provider – citazione testuale – non è responsabile della memorizzazione automatica, dunque né del sistema di ricerca né dei risultati della ricerca, finalizzati come sopra, sicchè non si vede come al riguardo possa escludersi la sua neutralità;
5 – anche a fronte di un ordine di rimozione da patte dell’autorità giudiziaria di
contenuti (intesi come risultati della ricerca) eventualmente lesivi di diritti, Google
non sarebbe comunque responsabile degli stessi, … e non potrebbe fondarsi una sua responsabilità per danni, quale ipotizzata viceversa dai ricorrenti;
6 – l ‘accostamento di termini in una stringa o un profilo di ricerca non costituisce
quindi un’affermazione bensì un suggerimento di ricerca sulla base dei dati statistici
o indicizzati presenti nella memoria di Google.
Come spesso accade, questa decisione è il frutto di una scarsa dimestichezza dei giuristi con le tecnicalità della matematica (statistica, nel caso di specie) e della programmazione.
E’ vero, Google si regge sulla statistica. Ma la statistica non è un oggetto monolitico e, soprattutto, NON è sinonimo di casualità. I suoi risultati dipendono dal modo in cui è selezionato il “campione” (questo è il nome tecnico della base dati sulla quale operare i calcoli) e da quello che, in buona o cattiva fede, si vuole far dire ai numeri. Quindi, affermare che siccome i risultati di autocomplete sono statistici allora non c’è responsabilità presuppone che sia stato accuratamente analizzato il modello statistico alla base del servizio offerto da Google. Nel provvedimento di Milano non c’è traccia di questa analisi.
Ma il modello statistico, in sé, non è l’unico elemento da analizzare in questa vicenda perché per funzionare ha bisogno di essere implementato in un software. E qui si apre un altro tema: anche se il modello statistico fosse corretto, la sua implementazione dovrebbe consentire la correzione di errori o – come nel caso di specie – di risultati lesivi. E’ obbligatorio? Si, quantomeno in Europa, sulla base della normativa sul trattamento dei dati personali. Ma soprattutto sulla base dell’obbligo generale di non provocare danni: sarebbe come produrre un’automobile con i freni difettosi e poi “chiamarsi fuori” dalle richieste di risarcimento.
Ma di questi temi il giudice non ha parlato, anche perché non gli è stato chiesto di esaminarli. E dunque, il vizio logico dell’ordinanza deriva da una imprecisa definizione dell’oggetto della causa. Il problema sollevato da “autocomplete” e “related search” è quello della responsabilità da progettazione di modello statistico e da sviluppo software cioè se e in quale limiti un matematico e un programmatore (o chi per loro) sono obbligati a risarcire i danni provocati dal loro operato. Come già fu ai tempi di Napster (per chi si ricorda ancora il caso) il motivo per cui il tribunale avrebbe dovuto decidere contro Google è che il progetto del modello statistico e e del software – meglio, dell’implementazione degli algoritmi – non ha previsto di default dei sistemi per minimizzare associazioni fra nomi e parole potenzialmente lesive e – soprattutto – non ha previsto metodi rapidi ed efficaci per consentire agli utenti di “correggere il tiro”. In altri termini, per tornare alla metafora dell’automobile, Google non può difendersi sostenendo la natura puramente automatizzata dei risultati delle due funzioni di supporto alla ricerca. Sarebbe come progettare un’automobile con un difetto all’ABS e poi “chiamarsi fuori” dalla responsabilità per l’incidente sostenendo che è il software (buggato) ha eseguito correttamente le istruzioni sbagliate.
Possibly Related Posts:
- La rottura tra Stati e big tech non è mai stata così forte
- Le accuse mosse a Pavel Durov mettono in discussione la permanenza in Europa di Big Tech
- Cosa significa l’arresto di Pavel Durov per social media e produttori di smart device
- Il senso di Apple per la privacy
- Così Big Tech ha imparato a monetizzare la nostra fuga dalla realtà