Cosa dice il pacchetto di norme approvato dal governo di Tokyo per spingere sviluppo e competitività: la sfida alla rigidità europea, ma anche al laissez-faire americano di Andrea Monti – Inizialmente pubblicato su La Repubblica – Italian Tech
Il 4 giugno 2025 è stata promulgata legge giapponese sull’intelligenza artificiale che già nel titolo fa capire chiaramente la scelta politica assunta da Tokio: Jink? chin? kanren gijutsu no kenky? kaihatsu oyobi katsuy? no suishin ni kansuru h?ritsu (Legge sulla promozione della ricerca, sviluppo e utilizzo delle tecnologie relative all’intelligenza artificiale).
A differenza dell’Unione Europea, bloccata dall’applicazione di un principio di precauzione non ancorato ad elementi oggettivi e misurabili, il Giappone ha compiuto una scelta estremamente pragmatica e consapevole: non “regolare l’IA” —qualsiasi cosa essa sia— ma potenziare ciò che serve per costruire le tecnologie necessarie al suo funzionamento.
In sintesi, dove la UE tira il freno a mano di una macchina parcheggiata a motore spento per evitare che si ribalti, il Giappone fa in modo di costruire strade efficienti per arrivare prima e meglio a destinazione.
“In passato” — spiega l’osservatorio Keiyaku Watch— la UE ha promosso l’adozione di una cosiddetta hard law, l’AI Act, stabilendo regole rigide su quei tipi di AI considerati ad alto rischio. In risposta, gli USA, timorosi che una scelta del genere potesse frenare l’innovazione … si sono coordinati con il Giappone e altri Paesi per adottare un approccio regolamentare basato sulla soft law”. Tuttavia l’approccio UE e il cambio verso una rotta “legalista” imposto dall’AI Executive Order dell’amministrazione Biden hanno convinto il Giappone a continuare lungo la strada della soft law.”
Il focus è sulla ricerca applicata e sulla competizione internazionale
L’articolo 3 si occupa appunto di porre le basi per guidare lo sviluppo dell’IA nella consapevolezza che la competizione in questo settore non conosce frontiere. Dunque la norma nasce già con l’obiettivo di migliorare la competitività nell’agone internazionale dei comparti industriali —e vale la pena di sottolineare la parola “industriali”— connessi all’IA. Nello stesso tempo un breve inciso apparentemente messo lì per caso, stabilisce l’importanza per la sicurezza nazionale della ricerca e sviluppo nei settori connessi all’AI. L’importanza di questo inciso sta nel fatto che, in modo molto poco ipocrita rispetto al dibattito occidentale, riconosce senza infingimenti che le tecnologie connesse all’AI possono e devono essere utilizzabili per la difesa del Paese (vale la pena di ricordare che il Giappone, per via della natura pacifista della Costituzione, non può avere un esercito con capacità offensive).
La trasparenza tecnologica come strumento per prevenire gli illeciti
Anche il tema degli utilizzi illeciti o che danneggiano il regolare svolgimento della vita della nazione è gestito in modo strutturale e non con una miriade di articoli che vanno a disciplinare singoli casi, con il rischio di trovarsi di fronte ad eventi imprevisti e dunque non gestibili in assenza di una norma specifica.
La scelta politica incarnata nella legge è stata quella di puntare innanzi tutto sulla trasparenza in ogni fase del ciclo di ricerca, sviluppo e impiego di tutte le tecnologie connesse all’IA.
Questa scelta merita una approfondimento perché, al contrario del regolamento UE sull’intelligenza artificiale, non impone obblighi di “spiegabilità” che sono impossibili da raggiungere, ma crea i presupposti perché chi deve, e ha sviluppato le necessarie competenze, possa verificare quello che è stato fatto, come e da chi.
In altri termini: imporre per legge la “spiegabilità” dell’IA implicherebbe definirne il livello. Quale dovrebbe essere il punto di riferimento per misurare la spiegabilità? Quello di un ricercatore che lavora in una Big Tech? Quello di un laureato in matematica? O quello di un normale cittadino, con un diploma di scuola superiore?
Al contrario, l’obbligo di trasparenza significa, molto più pragmaticamente, rendere possibile a soggetti qualificati l’accesso a tutte le informazioni necessarie per capire quali siano state le cause di danni a soggetti privati o attacchi alle istituzioni.
Lo schema dei doveri pubblici, privati e individuali
L’impostazione, per così dire, “architettonica” della legge sulla promozione delle tecnologie connesse all’IA ripartisce su tre ambiti i doveri e le responsabilità.
A differenza della normativa UE, quella giapponese prevede un dovere per tutti i soggetti di collaborare al raggiungimento dell’obiettivo dichiarato, cioè il raggiungimento della leadership tecnologica. Dunque, le pubbliche amministrazioni centrali e locali dovranno utilizzare l’AI per migliorare la propria efficienza, le università dovranno promuovere attivamente la ricerca e la diffusione dei risultati ottenuti, oltre a costruire un’ampia e robusta base di conoscenza, cooperando con lo Stato e le amministrazioni. Allo stesso modo, il settore privato dovrà migliorare l’efficienza dei processi e creare nuove industrie tramite l’impiego delle tecnologie connesse all’AI; e i cittadini dovranno coltivare l’interesse verso queste tecnologie.
Al vertice, spetta allo Stato adottare le misure necessarie per fare in modo che tutti gli attori si muovano in modo coordinato su questo palco tecnologico senza intralciarsi e senza intralciare le performance individuali.
Il ruolo del Primo Ministro nell’applicazione della strategia
L’impostazione strategica di questa legge ha come conseguenza l’attribuzione al Naikaku—il Gabinetto del Primo Ministro— dei poteri/doveri di coordinamento e controllo del modo in cui vengono attuati gli obiettivi normativi. Questo viene fatto attraverso l’istituzione di quello che, in Italia, potrebbe essere equiparato a un dipartimento della Presidenza del Consiglio, al quale tutti gli altri organi dello Stato, incluse le amministrazioni e le agenzie indipendenti, devono fornire pareri, chiarimenti e la necessaria cooperazione.
L’accesso alle infrastrutture tecnologiche e ai dataset
Un aspetto estremamente interessante della legge giapponese sull’IA è la previsione dell’obbligo di condividere strutture e attrezzature —leggi centri di supercalcolo, reti di telecomunicazioni e non solo— ma soprattutto di dataset da mettere a disposizione anche del settore privato. Questo, mentre in Occidente —forse con l’eccezione dell’Italia, che nel ddl IA propone un compromesso in nome dell’interesse pubblico— non si riesce ancora trovare una soluzione per bilanciare, da un lato, gli interessi dei titolari dei diritti d’autore e le (antistoriche) pretese di controllo delle autorità nazionali di protezione dei dati e, dall’altro, la necessità di accesso alle risorse che servono per costruire modelli per il machine learning e l’AI.
Il ruolo geopolitico della conoscenza e l’importanza della formazione
Le differenze della legge giapponese con l’approccio seguito dall’Unione Europea sono evidenti anche per quanto riguarda lo sviluppo della conoscenza e della formazione.
Il Giappone riconosce chiaramente l’importanza dello sviluppo di una base di conoscenza nazionale —cioè non dipendente da brevetti e proprietà intellettuale straniera e, di conseguenza, la necessità di sviluppare a qualsiasi livello la formazione sulle tecnologie connesse all’AI. Dunque, non solo nell’ambito della ricerca scientifica ma anche in quelli dove i risultati dovranno essere utilizzati.
L’importanza della visione strategica
Nessun piano resiste all’impatto con la battaglia recita un abusatissimo aforisma del generale von Moltke, ma questo non significa che pianificare sia sbagliato o impossibile. Proprio questo è l’approccio che traspare dall’impostazione della legge giapponese sull’AI, basata sulla consapevolezza che non ha senso ingabbiare in norme l’evoluzione tecnologica, ma che, invece, serve creare un ecosistema che consenta di indirizzarne lo sviluppo adottando caso per caso eventuali correttivi dove fossero necessari.
Poco importa che questo approccio sia il frutto di una “visione politica” o la conseguenza della necessità di sopperire con l’automazione spinta alle carenze derivanti dal declino della popolazione e dal suo invecchiamento. Nei fatti, rappresenta una terza via rispetto a quella statunitense basata sul “meglio chiedere scusa che permesso” e a quella della UE incapace di liberarsi dal dirigismo burocratico, nonostante i ripetuti tentativi.
Quale di questi approcci avrà successo è presto per dirlo, anche se gli effetti (negativi) dei primi due sono già evidenti. Negli USA, Big Tech chiede a gran voce l’allentamento delle restrizioni sull’accesso ai dati relativi a opere protette dal diritto d’autore (oggetto di controversie giudiziarie come quella promossa dal New York Times per lo sfruttamento illecito dei propri articoli) e ha avviato una massiccia campagna per ottenere l’assenso (o il non dissenso) degli utenti al riutilizzo dei dati dei loro dati.
L’Unione Europea sta producendo ponderosi atti applicativi del regolamento AI vanificando un approccio virtuoso che usa le regole per sostenere la ricerca, peraltro —in concreto— incentivata essenzialmente con la leva economica.
A questo proposito, se è vero che il controllo sulle tecnologie dell’IA è un elemento fondamentale per lo sviluppo dei singoli Stati membri e l’acquisizione di un’autonomia politica dell’Unione Europea, allora una critica forte alle sue scelte è necessaria e doverosa. Non perché siano necessariamente sbagliate, ma perché vengano lette con gli occhiali del pragmatismo e non con quelli delle affermazioni di principio non supportate dal confronto con la realtà, ma con la pretesa di piegarla
Possibly Related Posts:
- Meta potrà usare i dati degli utenti per addestrare l’IA: cosa dice la sentenza tedesca
- Svolta del Tribunale di Milano: pubblicare le foto dei figli minorenni può essere reato
- Il ruolo geopolitico dell’IOMed a trazione cinese
- Il caso Garlasco riapre il dibattito su scienza, tecnologia e ruolo del giudice
- Chi risponde degli errori di ChatGPT? Una sentenza USA fa chiarezza (per ora)