Qualche interrogativo sulle politiche di accesso differenziato ai sistemi di AI adottate dall’azienda – di Andrea Monti – Inizialmente pubblicato su Italian Tech – La Repubblica
Da circa una settimana, la controversia fra Anthropic e il Department of War americano è alla ribalta dell’informazione internazionale. Molto è stato scritto sull’argomento, ma l’azione legale annunciata e poi effettivamente promossa dall’azienda contiene gli elementi concreti per comprendere la natura della controversia e, in generale, quali sono le criticità attuali nell’uso dell’AI (non solo) nel settore militare.
Le dichiarazioni di Anthropic
Riassumiamo i fatti così come dichiarati da Anthropic nel proprio “atto di accusa” contro l’amministrazione Trump.
Fatto numero 1: Anthropic ha sviluppato delle AI sulla base delle indicazioni delle strutture incaricate della sicurezza nazionale
Anthropic has also developed specialized “Claude Gov” models tailored specifically for the national security context. These models have been built based on direct feedback from national security agencies to address real-world requirements, like improved handling of classified information, enhanced proficiency in critical languages, and sophisticated analysis of cybersecurity data. Claude Gov models undergo rigorous safety testing consistent with Anthropic’s commitment to responsible AI.
Fatto numero 2: i modelli Claude Gov sono costruiti con minori restrizioni (ma quanto minori?) di quella a disposizione dei clienti “normali”. Dunque, per esempio, potrebbero essere stati eliminati i blocchi che impediscono all’AI di generare piani d’attacco, analisi di vulnerabilità critiche o supporto tattico letale, normalmente inibiti nelle versioni commerciali (si legge nel ricorso:
To make Claude more useful for the military and intelligence components of the federal government, Anthropic does not impose the same restrictions on the military’s use of Claude as it does on civilian customers.)
Fatto numero 3: Anthropic consente l’uso della propria AI per sviluppare armi, purché ci sia un essere umano che le mette in funzione (scrive Anthropic:
By its terms, the Policy has always prohibited the use of Anthropic’s services for lethal autonomous warfare without human oversight and surveillance of Americans en masse),
e fatto numero 4, consente la realizzazione di programmi di sorveglianza di massa su chiunque, basta che non sia americano, e su cittadini americani, purché non en masse.
Fatto numero 5: Anthropic non esclude che Claude possa, un giorno, essere in grado di uccidere e sorvegliare in modo autonomo, ma non è detto che voglia farlo
(Anthropic did not develop Claude (or the specialized Claude Gov models) to deploy lethal autonomous warfare without human oversight. Claude has not been trained or tested for that use. At least at present, Claude is simply not capable of performing such tasks responsibly without human oversight.)
Fatto numero 6: come nel caso delle armi autonome, anche in quello della sorveglianza di massa Claude può commettere errori ad un livello tale da non renderlo (ancora) idoneo al funzionamento non supervisionato
(Second, Anthropic is unwilling to agree to Claude’s use for mass surveillance of Americans. … And surveillance conducted using AI poses significantly greater potential to make mistakes—and to amplify the effect of any mistakes—than traditional techniques.)
Cosa significano le dichiarazioni di Anthropic
Lette in modo coordinato e tradotte dal linguaggio giuridico in quello umano, le dichiarazioni di Anthropic evidenziano in modo chiaro alcuni aspetti di strategia economica e geopolitica tecnologica che andrebbero presi nella dovuta considerazione dal nostro lato dell’Atlantico.
Quelle che seguono sono considerazioni analitiche, non necessariamente “volute” da Anthropic, ma deducibili dal quadro complessivo del rapporto fra Big Tech e poteri pubblici.
Nessuna tutela per chi non è americano
Il primo, è che le preoccupazioni etiche di Anthropic riguardano esclusivamente i cittadini (militari o civili che siano) americani. Dunque, nulla vieta che Claude Gov possa essere utilizzato per sviluppare armi (variamente autonome) e sistemi di sorveglianza da utilizzare contro chiunque altro. Questo segna la fine dell’era dell’innocenza per un’azienda nata da una costola di Open AI con l’obiettivo di concentrarsi sulla “safety” e che ha tuttora lo status giuridico di “Benefit Corporation”.
Versioni indebolite per i partner non USA?
Se Claude Gov dovesse essere venduto anche a Paesi alleati, quale versione sarebbe loro consentito di utilizzare? Non certo quella a disposizione delle strutture di difesa e sicurezza americane e quindi è realistico pensare che una scelta del genere possa creare problemi nel coordinamento strategico e tattico in caso di operazioni militari congiunte. La diversa capacità analitica, pur volendosi limitare a questo aspetto, si tradurrebbe in decisioni operative che i partner dovrebbero sostanzialmente subire, senza avere una reale voce in capitolo.
Non è detto che Anthropic voglia evolvere Claude Gov verso l’autonomia totale
Claude Gov produce ancora molti errori e per questo è necessaria la presenza di un operatore umano che lo faccia funzionare, cioè di un capo espiatorio. E che l’essere umano incaricato di decidere come usare Claude Gov sia un capro espiatorio è dimostrato da una considerazione abbastanza banale nota da tempo: il valore di un’AI è la capacità di analizzare enormi quantità di dati e proporre delle scelte; ma come fa chi deve decidere a capire quale scelta sia corretta? È chiaro che la presenza umana in un processo del genere è puramente formale perché l’operatore non avrà una reale capacità o possibilità (in caso di urgenze) di decidere in modo consapevole e informato.
Human in the loop è un modo per far pagare i danni da malfunzionamento al governo
Da una prospettiva puramente industriale, sembra improbabile che Claude Gov possa essere costruito per raggiungere la piena autonomia operativa.
Con la presenza di un operatore umano che avvia il funzionamento di Claud Gov, Anthropic si chiama fuori dalle azioni legali delle vittime degli errori di funzionamento (o quantomeno si riserva la possibilità di coinvolgere il governo). Se, infatti, Claud Gov funzionasse in modo totalmente autonomo, allora spetterebbe ad Anthropic pagare i danni subiti dalle vittime innocenti dei suoi automatismi letali. Al contrario, se per funzionare Claude Gov ha bisogno che un essere umano lo “accenda” allora la responsabilità è di quell’essere umano, cioè dell’amministrazione alla quale appartiene il capro espiatorio. In altri termini, non si tratta di prudenza etica ma cautela giuridica per limitare il rischio legale.
Quali indicazioni generali si possono trarre dal caso Anthropic
A prescindere dall’esito di questa azione legale diretta a tutelare i legittimi interessi economici di Anthropic, vale la pena di riflettere su alcune questioni più generali di interesse per l’Europa.
La prima è che l’uso dell’AI con finalità letali da parte degli Stati membri non può essere un taboo. Questo significa che al di fuori della UE (perché l’articolo 4 del Trattato UE lo consente) i singoli Paesi possono, se vogliono, siglare direttamente accordi per lo sviluppo di tecnologie che incorporano l’AI nelle piattaforme decisionali e in quelle d’arma. Il che significa, ulteriormente, che nell’ambito di questi accordi ristretti sarebbe necessario sviluppare delle AI dedicate alla difesa, addestrate su dati e informazioni non pubblicamente disponibili.
La seconda è che, in modo particolare nel settore difesa, se non ci si decide a sviluppare un intero ecosistema informatico del tutto autonomo (sistemi operativi, ambienti di sviluppo, dataset, modelli e piattaforme per utilizzarli) il massimo che potremo utilizzare è il minimo che gli USA sono disposti a concederci.
Rischiamo, in altri termini, di trovarci in una subalternità tattica, che ricorda quella in cui versò la Marina militare italiana durante la seconda guerra mondiale. L’uso di versioni meno potenti delle cifranti Enigma, la cui crittografia venne “rotta” dagli inglesi, produsse risultati disastrosi culminati nella disfatta di Capo Matapan. Con le debite proporzioni, questo potrebbe succedere con AI che sbagliano troppo e(o) che non sono sufficientemente potenti.
La terza è che, con buona pace del regolamento UE sull’intelligenza artificiale —o meglio, proprio a causa di quel regolamento— l’obbligo di applicare il principio human in the loop elimina, o comunque riduce fortemente, la responsabilità giuridica della Big Tech di turno. Difficile pensare che in quadro normativo come quello europeo ci sia un reale incentivo ad adottare sistemi che in teoria sono sotto il controllo dell’operatore, mentre in realtà lo trasformano semplicemente in un interruttore che ha lo scopo di mettere in moto gli ingranaggi.
Infine, il fatto che anche altre aziende attive nel settore abbiano deciso di prendere le parti di Anthropic evidenzia come le questioni sollevate dalla vicenda specifica siano fonte di preoccupazione per l’intero comparto. Se, infatti, “passasse” la linea sostenuta dall’amministrazione Trump in base alla quale rifiutarsi di dare corso alle richieste della Difesa implica la perdita della possibilità di lavorare per il settore militare, l’impatto sugli utili e (soprattutto) sulla concorrenza sarebbero enormi e dunque da evitare ad ogni costo.
Il caso Anthropic è estremamente utile anche per l’Europa perché consente di guardare nel futuro e capire quali sono i problemi reali che dovremo affrontare se vogliamo veramente utilizzare le tecnologie AI. L’alternativa è continuare come si sta facendo oggi, ragionando in termini astratti, basandosi su percezioni confuse del fenomeno AI e dunque lasciando che il resto del mondo vada avanti senza di noi.
Possibly Related Posts:
- Il (vero) motivo per il quale Anthropic dice no alle armi autonome
- La NATO può realmente fidarsi degli iPhone?
- La California prova a risolvere diversamente il problema dell’età online
- Il nuovo esercito di terracotta dell’impero cinese è fatto di robot
- L’Europarlamento blocca l’IA sui cellulari dei deputati. Non per questo siamo più sicuri, anzi
