Per “combattere i deep fake” la Danimarca propone una legge per dare alle persone il copyright sui tratti somatici e sulla voce. Ma rende più facile vendere i dati e oggettificare l’individuo e rischia di paralizzare la ricerca di Andrea Monti – Inizialmente pubblicato daMIT Technology Review Italia
Lo scorso giugno 2025 il governo di Copenaghen ha avanzato una proposta per estendere il copyright ai dati biometrici, compresi i tratti somatici e la voce. L’obiettivo di questa proposta è quello di assicurare ai cittadini danesi il diritto al controllo sulle proprie fattezze, che sempre più spesso diventano oggetto di manipolazione per creare deep-fake nella forma di immagini, video e voci. La proposta riguarda esclusivamente la Danimarca, ma per come funziona l’unione europea sarà necessario analizzarla anche al di fuori dei confini nazionali prima che possa essere definitivamente approvata.
Il tema del contrasto ai deep-fake è sicuramente rilevante. La disponibilità diffusa di strumenti che replicano abbastanza fedelmente l’apparenza esteriore di una persona consente di commettere atti che vanno da scherzi di dubbio gusto, a lesioni della reputazione di un individuo, fino allo sfruttamento dell’immagine altrui per pubblicità o per atti criminali. Tuttavia, la soluzione proposta dalla Danimarca è priva di senso dal punto di vista giuridico, pericolosa per l’individuo e, per quanto interessa queste pagine, capace di bloccare la ricerca scientifica.
Perché è sbagliato pensare al copyright per tutelare l’immagine dell’individuo
Un sillogismo in prima figura spiega chiaramente l’errore strutturale della proposta danese: il diritto d’autore tutela un atto creativo dell’essere umano, i dati di qualsiasi tipo, compresi quelli biometrici, sono scoperti e non creati, quindi i dati non possono essere tutelati con il diritto d’autore.
Oltre a essere logicamente e giuridicamente infondata, la proposta danese è anche inutile perché l’utilizzo di dati che identificano una persona è già regolato, a livello di unione europea, dalle norme sulla protezione dei dati personali e a livello nazionale —per esempio, in Italia— da quelle sulla tutela dell’immagine personale e da quelle che puniscono la sostituzione di persona e varie altre frodi.
Infine, affermare il diritto d’autore sui dati biometrici è pericoloso perché trasforma definitivamente l’identità informazionale —l’insieme dei dati che ci definiscono— in un bene integralmente disponibile.
Il copyright sui dati li rende irrevocabilmente licenziabili
Seppure in modo confuso, fino ad ora le normative europee stabiliscono il principio che l’individuo mantiene sempre e comunque il controllo sui dati (anche biometrici) che lo riguardano. Approvata la legge danese, i dati diventerebbero a tutti gli effetti permanentemente licenziabili cioè “vendibili” senza possibilità per l’individuo di riaverli indietro, di opporsi al modo in cui sono utilizzati o di partecipare agli utili derivanti dal loro impiego. Dall’altro lato, un’opzione del genere implicherebbe che in alcune giurisdizioni, come l’Italia, usare dati senza licenza o violandone i termini potrebbe addirittura essere un reato.
L’antecedente storico: il copyright sul genoma umano
L’idea del governo danese non è, in realtà, nuova perché in passato si era già tentato di ipotizzare una qualche forma di copyright sui componenti informazionali dell’individuo. Come non sono nuove la conseguenza di una scelta del genere.
In un’intervista rilasciata quasi quarant’anni fa al Washigton Post, Walter Gilbert, vincitore nel 1980 del Nobel per la chimica, teorizzò senza mezzi termini il perché il genoma umano doveva essere soggetto al copyright e non al brevetto.
“Non credo che il genoma sia brevettabile” dichiarò Gilbert al giornalista anticipando di trent’anni la Corte suprema USA che nella causa Association for Molecular Pathology v. Myriad Genetics, Inc.. dichiarò che le sequenze genetiche non sono nemmeno oggetto di proprietà industriale (cioè di brevetto) sempre perché sono scoperte e non inventate. Piuttosto, continua Gilbert che stava entrando nel mercato con una propria azienda, “intendiamo imporre il copyright sulla sequenza. Questo significa, semplicemente, che per leggerla bisogna pagare il diritto di consultarla. Il nostro scopo è rendere le informazioni disponibili a chiunque, ma a pagamento”. Gilbert non aveva ben chiara la natura del copyright, ma questo nulla toglie alla nitidezza della sua posizione: deve esistere un diritto sui dati estratti da organi, tessuti e cellule, e questo diritto deve essere attribuito a chi trova questi dati.
Non è difficile trovare in questa posizione delle forti similitudini con le tesi sostenute oggi dalle AI company per giustificare la pretesa di utilizzare liberamente tutti i dati che trovano per addestrare i propri modelli.
Un altro antecedente storico: la (non) proprietà su tessuti, fluidi corporei e sui dati che se ne possono estrarre
Ci sono pochi dubbi sul fatto che i dati abbiano un valore enorme per la ricerca scientifica e che, nello stesso tempo, abbiano di conseguenza un valore economico non solo nell’ambito della costruzione di dataset per l’addestramento di modelli di AI, ma anche per la loro capacità individuale di contribuire a scoperte e invenzioni non solo nell’ambito ML/AI. Sarebbe quindi logico dedurre che chi detiene —o meglio, contiene— questi dati, l’individuo, abbia il diritto ad essere pagato per consentirne l’utilizzo a terzi. Ma questa conclusione non è così immediata.
Nel 1990 la Corte suprema della California decise il caso Moore v. Regents of the University of California stabilendo che una persona non ha diritto alla compartecipazione agli utili dei risultati prodotti da una ricerca basata sui propri tessuti organici e fluidi corporei. Una volta prelevati, ritenne la Corte, questi “pezzi” diventano proprietà dei ricercatori che, dunque, possono sfruttarli in piena autonomia e dunque, attualizzando la decisione, anche estraendo dati da riutilizzare e sfruttare economicamente.
Un ulteriore precedente: non “proprietà” sui tessuti ma “indebito arricchimento”
Di segno contrario, e ancora oggi fonte di discussioni, è il caso delle HeLa cells, la prima linea cellulare immortalizzata, derivata da una donna afroamericana, Henrietta Lacks, morta nel 1951 di tumore.
Le Hela cells sono diventate uno strumento indispensabile per un ampio spettro di ricerche —da quelle sui virus a quelle sugli effetti delle radiazioni— senza ricorrere ad esperimenti in vivo. Il Johns Hopkins Hospital, dove fu scoperta la peculiarità delle cellule tumorali di Lacks, non cercò mai di sfruttarle economicamente, decidendo —anzi— di mettere a disposizione questo incredibile strumento di tutta la comunità scientifica. Questo, tuttavia, non ha eliminato le polemiche, culminate in una serie di azioni giudiziarie avanzate nel 2023 dagli eredi della donna contro aziende biopharma accusate di avere ottenuto vantaggi economici dall’uso non autorizzato e non remunerato delle HeLa cells.
Limiti e conseguenze della proposta danese
Mettendo a sistema il ragionamento sviluppato fino a questo punto, si capisce quali possono essere gli effetti collaterali della proposta danese.
Da un lato, imporre il copyright sull’individuo ne trasforma l’identità in un bene vendibile senza garantire necessariamente un qualche vantaggio al singolo; dall’altro espone la ricerca al rischio di azioni legali o di costi insostenibili —come ha evidenziato il prof. Yu Takagi in un’intervista pubblicata su queste pagine sull’importanza della libera disponibilità di modelli AI per la ricerca neuroscientifica.
Pagare ogni persona per l’uso dei suoi dati sembra, in teoria, una soluzione equa. D’altra parte, anche i volontari per la sperimentazione clinica di farmaci vengono remunerati —poco— per la partecipazione a studi e ricerche. Questo approccio potrebbe funzionare per casi come quelli di Moore o di Lacks, ma per grandi quantità di dati relativi a un numero altrettanto grande di persone, anche volendo negoziare un costo, il corrispettivo per il singolo soggetto sarebbe irrisorio.
Il valore dei dati, infatti, emerge solo se e quando le enormi quantità di informazioni analizzate producono scoperte scientifiche o prodotti da immettere sul mercato. Quindi, se chi raccoglie e gestisce questi dati dovesse pagare un prezzo di qualche tipo dovrebbe sostenere anticipatamente costi per sperare di ottenere un risultato che potrebbe non arrivare mai —peraltro considerando che per la ricerca sono “risultati” anche quelli che portano all’individuazione di vicoli ciechi.
Il proiettile inarrestabile contro il muro indistruttibile
Il dibattito su questi temi dura da tempo e si polarizza fra chi sostiene la prevalenza di una serie di diritti più o meno già riconosciuti esplicitamente, come le rivendicazioni delle minoranze, la protezione dell’identità individuale e la tutela della bodily privacy da un lato e la libertà della ricerca pubblica o l’interesse industriale delle aziende private dall’altro.
È chiaro che fino a quando ciascuna parte considererà le proprie posizioni in termini astratti e ideologici, queste non saranno negoziabili, il che rende altamente improbabile il raggiungimento di un equilibrio che tenga conto di interessi collettivi e individuali.
Una soluzione possibile
Invece di trasformare in crociata un dibattito esiziale per l’essere umano, sembra piuttosto preferibile adottare un approccio pragmatico che non passi per la mercificazione individuale, ma che si ispiri a meccanismi collettivi di compensazione e redistribuzione. In uno schema del genere, una quota dei ricavi generati dalla raccolta e dall’uso dei dati biometrici potrebbe finanziare fondi per la ricerca scientifica, la biosicurezza e lo sviluppo di infrastrutture pubbliche di dati.
In questo modo, le persone avrebbero dei vantaggi individuali (un compenso) e collettivi (sviluppo di metodi per diagnosi e cura), si valorizzerebbe la funzione sociale dei dati, gli scienziati potrebbero lavorare senza il timore di azioni legali.
Tutto questo dimostra quanto sia riduttiva —oltre che sbagliata— la proposta danese. Prima ancora delle questioni di diritto, infatti, la vera sfida non è decidere “quanto valgono” o “di chi sono” un singolo volto o una voce, ma quella di capire come trasformare il valore cumulativo dei dati in un vantaggio diffuso che bilanci l’interesse della ricerca con quello della collettività.
Possibly Related Posts:
- Suicidi e intelligenza artificiale: ChatGPT può essere ritenuta responsabile?
- I pericoli dell’autosorveglianza: il caso De Martino e la vulnerabilità della “casa digitale”
- Dal lutto al business: AI, chatbot, dati personali e la promessa dell’immortalità
- GPT-OSS com’è il modello “open-weight” (che non vuol dire affatto open source) di OpenAI
- WhatsApp, l’Antitrust e il controllo delle interfacce