La Commissione Europea vuole regolamentare l’intelligenza artificiale, ma lo fa con una proposta confusa e concettualmente sbagliata di Andrea Monti – PC Professionale n. 363 – giugno 2021
La Commissione Europea ha predisposto una bozza di regolamento sull’intelligenza artificiale basato su due presupposti sbagliati: il primo è che esiste l’intelligenza artificiale. Il secondo è che solo l’intelligenza artificiale è potenzialmente pericolosa, mentre il resto del software “tradizionale”, no.
La conseguenza è una normativa ispirata dalla fantascienza piuttosto che dall’analisi di come l’industria del software ha condizionato la vita delle persone. La Commissione, per esempio, propone di vietare che i “sistemi AI” siano usati per lanciare messaggi subliminali per manipolare i comportamenti di persone anche appartenenti a minoranza e causare loro danno (quindi, si dovrebbe dedurre, è lecita la manipolazione subliminale che non danneggia le persone? Ma non è la manipolazione stessa un male in sé?).
Allo stesso modo, propone di vietare l’uso di questi sistemi per creare social scoring e strumenti di valutazione automatizzata di affidabilità delle persone. Ma non è quello che già accade e senza bisogno della “intelligenza artificiale”?
Inoltre: l’AI è considerata ad alto rischio se gestisce la sicurezza di prodotti immessi sul mercato. Ma qualcuno si è mai accorto che, ad esempio, gli apparati elettromedicali e di diagnostica utilizzano software regolati da licenza “as is” (cioè senza alcuna garanzia di funzionalità e funzionamento?).
Un ulteriore errore concettuale del regolamento è che sia possibile distinguere in modo chiaro l’AI da ciò che non lo sarebbe.
L’articolo 3 comma I della bozza “definisce” l’AI come:
software sviluppato con una o più delle tecniche e degli approcci elencati nell’allegato I che può, per un dato insieme di obiettivi definiti dall’uomo, generare output come contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono.
Secondo l’allegato 1 al quale si riferisce l’articolo un software appartiene alla categoria “intelligenza artificiale” se è sviluppato con:
approcci di apprendimento automatico, incluso l’apprendimento supervisionato, non supervisionato e di rinforzo, usando un’ampia varietà di metodi incluso l’apprendimento profondo; Approcci logici e basati sulla conoscenza, inclusi rappresentazione della conoscenza, programmazione induttiva (logica), basi di conoscenza, motori inferenziali e deduttivi, ragionamento (simbolico) e sistemi esperti; Approcci statistici, stima bayesiana, metodi di ricerca e ottimizzazione.
È facile usare, sulla carta, le buzzword del marketing tecnologico, mentre è straordinariamente più difficile, nella realtà del mercato digitale, stabilire una differenza chiara fra ciò che rientra in una categoria o nell’altra. Specie se chi sviluppa piattaforme software sceglie deliberatamente di confondere le acque.
Inoltre: perché il metodo utilizzato dovrebbe fare la differenza rispetto alle conseguenze provocate dall’abuso di un programma? In altri termini, il problema non è la fantomatica “AI” ma l’uso del software a prescindere dalla tecnica utilizzata per costruirlo. Se si stabilisce che soltanto i programmi basati sulla “intelligenza artificiale” sono soggetti alle limitazioni del regolamento, questo implica lasciare mano libera a tutti gli altri che sono sviluppati con metodiche differenti e che, non sono meno pericolosi.
Per capire come mai la proposta di regolamento contenga questi errori fondamentali è necessario partire da una considerazione: l’intelligenza artificiale —per lo meno quella comunemente intesa come tale, cioè quella cinematografica— non esiste e non esisterà. I software non “pensano” perché sono macchine sintattiche (funzionano, in altri termini, manipolando simboli senza comprenderne il significato). Gli esseri umani sono soggetti che interagiscono semanticamente. Creano, in altri termini, senso.
I due ambiti sono irriducibili e per quanto un software possa imitare un essere senziente, non lo diventerà mai. Il concetto chiave, in questo discorso, è proprio quello di “imitare”: alcuni sostenitori dell’AI ritengono che se un software si esegue attività mostrando una “intelligenza” indistinguibile da un essere umano, allora è intelligente come un essere umano. A parte la facile battuta del rilevare che molti esseri umani sono più stupidi di un programma, è concettualmente sbagliato affermare che sembrare intelligenti equivale ad esserlo ed è giuridicamente sbagliato regolare l’utilizzo di un software partendo da premesse infondate. I diritti (e i doveri) nascono dalla consapevolezza di esistere che è la differenza fra esseri viventi e oggetti.
Ecco perché non ha senso, come pure a livello comunitario è stato fatto, di dare valore giuridico alle “tre leggi della robotica” create da Isaac Asimov in un racconto di fantascienza. Ed è ancora ispirandosi alle creazioni letterarie di Asimov che i sostenitori ad oltranza dell’intelligenza artificiale si difendono ammettendo che questa critica è corretta. Certo, dicono, oggi le capacità cognitive dei software sono ancora allo stato embrionale. Ma, come pensa, mentre lo smembrano, il protagonista di “Someday” —un altro racconto di Asimov che racconta del Bardo, un computer creativo fatto a pezzi da ragazzini ignoranti— un giorno i programmi saranno in grado di fare cose che voi umani…
Anche questo, però, è un ragionamento privo di senso. Il fatto che oggi una certa cosa sia impossibile non vuol dire che domani diventerà fattibile. Certo, la storia della scienza e della tecnologia insegnano che il progresso ha reso possibili cose impensabili, ma questa non è una regola assoluta. Per capirlo, basta pensare che gli esseri umani, da soli, non hanno mai volato, non volano e non voleranno. Quindi non ha senso allenarsi ad agitare le braccia perché se non oggi, fra qualche tempo sicuramente si riuscirà a librarsi nell’aria.
Siamo di fronte a un vizio di pensiero che si traduce in un approccio giuridico basato sul concetto di “pezza a colore”. Ciò che (dovrebbe) conta(re) è proteggere le persone dagli abusi che possono essere commessi sfruttando qualsiasi tecnologia, a prescindere dal suo funzionamento. Di conseguenza avrebbe più senso affrontare il tema della responsabilità (e della punizione) di chi sviluppa software piuttosto che cercare di tappare buchi man mano che si manifestano.
Possibly Related Posts:
- Le sanzioni UE ad Apple e Google aprono un altro fronte nella guerra contro Big Tech (e incrinano quello interno)
- Il caso Crowdstrike rivela le cyber-debolezze Ue
- Cosa significa la distruzione del campo di riso geneticamente migliorato dell’università Statale di Milano
- ChatGPT non è onnisciente, ma OpenAI è vittima del proprio marketing
- Lo Human Genome Meeting di Roma riporta in primo piano la necessità di liberare l’uso dei dati