La società americana rifiuta l’uso delle proprie tecnologie da parte dei militari per sistemi completamente autonomi. Ma il vero problema, più che etico, riguarda l’affidabilità dell’intelligenza artificiale in guerra di Andrea Monti – Inizialmente pubblicato su Italian Tech-La Repubblica
La notizia dello scorso 9 marzo 2026 secondo la quale Anthropic avrebbe deciso di agire legalmente contro il Department of war statunitense segna una nuova fase nella controversia con l’amministrazione Trump.
L’oggetto del contendere è il rifiuto di Anthropic di consentire che le proprie IA venissero usate per sviluppare sistemi di sorveglianza di massa e armi a vario livello di autonomia, a seguito del quale l’amministrazione USA ha escluso la Big Tech dai settori più critici (e dunque redditizi) delle commesse militari.
Tutela dei diritti o strategia di negoziazione?
La scelta di annunciare l’intenzione di rivolgersi alle corti invece di farlo direttamente e poi rendere pubblica la notizia sembra più un tentativo per indurre l’amministrazione a tornare sui propri passi che la manifestazione della reale volontà di avere giustizia.
Un indizio che sostiene questa ipotesi è la contorta motivazione sulla Anthropic avrebbe intenzione di costruire il caso: la violazione della libertà di espressione. Secondo la Big Tech, infatti, l’esclusione dall’accesso alle commesse militari sarebbe una “rappresaglia” che si concreta in un’indebita compressione del diritto dell’azienda a manifestare liberamente il proprio pensiero.
Saranno i giudici, se la causa verrà effettivamente avviata, a valutare la questione. Ciò non toglie che una scelta del genere dimostra come, ancora una volta, i diritti fondamentali sono (diventati) semplicemente uno strumento per la tutela di interessi (economici) che nulla hanno a che vedere con il motivo per il quale sono stati concepiti. Da strumento per tutelare l’essere umano sono diventati parte dell’arsenale per la negoziazione di interessi economici.
La novità della cronaca lascia inalterate, tuttavia, le tre questioni sostanziali che emergono dal comunicato di Amodei diffuso sul sito di Anthropic
Quando Big Tech negozia da pari a pari con i governi
La prima riguarda il tema (non certo nuovo dato che ne parlammo su queste colonne già nel 2021) di quello che è stato chiamato neomedievalismo tecnologico, cioè di quel contesto politico nel quale lo Stato non è più unico detentore del potere sovrano, ma deve condividerlo con Big Tech.
È già capitato con Apple, che rifiutò di progettare iOS in modo da agevolare le indagini della magistratura, con Starlink, che dopo i test nel conflitto Ucraino ha ricevuto una manifestazione di interesse dal Giappone, con Meta che è diventato un defense contractor, e con OpenAI che ha imposto ai militari di non usare la propria tecnologia per creare sistemi di sorveglianza di massa.
Il filo rosso che lega questi eventi non è il merito delle scelte (alcune aziende hanno optato per un supporto alle attività militari, altre hanno imposto limitazioni) ma il fatto che abbiano negoziato (o vogliano negoziare) da pari a pari con l’esecutivo non su questioni relative a costi e forniture, ma su aspetti che coinvolgono la sovranità strategica di uno Stato.
La sorveglianza di massa tra retorica e sicurezza
La questione diventa più chiara se viene affrontata in rapporto al caso concreto.
Nella negoziazione con il Department of War sia Anthropic sia OpenAI hanno dichiarato di non consentire che le proprie tecnologie vengano utilizzate per costruire sistemi di sorveglianza di massa dei cittadini americani (ma non di quelli di altri Paesi).
Vista la diffusa sensibilità globale per la “tutela della privacy”, una scelta del genere è sicuramente vantaggiosa dal punto di vista del marketing e dello sfruttamento della retorica dei “diritti digitali” per supportare il posizionamento “etico” di prodotti e servizi. Nei fatti, però, tutto questo non fa che riaffermare il posizionamento di Big Tech come soggetto intenzionato a decidere cosa sia un diritto e cosa no, e a dettare l’agenda agli esecutivi.
Per essere chiari, da un lato la “tensione etica” di OpenAI e Anthropic sui diritti fondamentali si ferma ai confini di Stato, e quindi non vale, per esempio, per i cittadini degli Stati membri della UE che utilizzano i loro servizi. Dall’altro, il fatto che i militari vogliano invadere gli ambiti riservati alla polizia e alla magistratura con progetti di sorveglianza interna è senz’altro preoccupante. Ma consentire o meno che oltre a polizia, pubblici ministeri e servizi segreti anche i militari possano gestire programmi di sorveglianza interna è —o dovrebbe essere— compito della magistratura o del parlamento, non certo di un’azienda privata.
Inoltre, come nota a margine, andrebbe considerato che se il problema di Anthropic è la natura del committente, situazioni ibride come quelle della National Security Agency (della quale i militari sono parte strutturale) consentirebbero in ogni caso l’accesso delle stellette a specifiche tecnologie di sorveglianza, anche se il bonifico per il pagamento del servizio arrivasse da un conto corrente diverso da quello del Pentagono.
La guerra e il mito dell’etica tecnologica
Un altro degli argomenti usati da Anthropic per negare l’uso delle proprie tecnologie in ambito militare è stato quello di opporsi all’uso militare dell’AI, con degli argomenti che superano di slancio il dibattito sulla necessità di un’etica delle armi autonome.
Partiamo dai fondamentali.
Per quanto sia disturbante il concetto, non ci sono troppi dubbi sul fatto che le guerre si vincono uccidendo più nemici di quanti “nostri” cadano in battaglia. Così come non ci sono dubbi che per fare la guerra ci vogliono le armi, e che le armi servono per uccidere.
Inoltre, è abbastanza evidente che prevalere in un conflitto richiede (anche) avere a disposizione armi più letali di quelle in possesso dell’avversario. Questo significa che l’industria delle armi ha l’obiettivo di costruire armi sempre più letali da usare concretamente o, come nel caso della bomba atomica e delle armi batteriologiche, da usare come deterrente.
Infine, come insegna la non adesione di alcuni Paesi al trattato sul divieto di utilizzo di mine antiuomo o il suo mancato rispetto, anche il rifiuto “etico” dell’uso di certe armi non è un valore assoluto. Come già detto, le parole definitive sull’argomento sono state pronunciate in tempi non sospetti, alla fine dell’Ottocento, da due giganti della dottrina militare, Carl von Clausewitz e Helmut von Moltke.
Il primo scrisse nel 1832 che “le persone di buon cuore potrebbero ovviamente pensare che esista un modo ingegnoso per disarmare o sconfiggere un nemico senza troppi spargimenti di sangue e potrebbero immaginare che questo sia il vero obiettivo dell’arte della guerra. Per quanto possa sembrare piacevole, si tratta di una convinzione errata da smascherare; la guerra è un’attività talmente pericolosa che gli errori che derivano dalla gentilezza sono i peggiori” mentre il secondo, nel 1861, rincarò la dose affermando che “la più grande gentilezza che si può fare in guerra è farla terminare rapidamente”.
La conclusione è abbastanza evidente: se l’AI consente di creare armi più letali di quelle del “nemico”, non ci sono motivi di principio per evitare di usarla, basta che i loro effetti riguardino gli avversari e non chi le utilizza.
Questa considerazione introduce il terzo tema emerso dal comunicato di Anthropic.
Il problema dell’AI in guerra non è l’etica ma l’affidabilità
Secondo Amodei, il vero nodo da sciogliere sull’uso dell’AI nella costruzione di armi autonome è quello del suo attuale (e reale) grado di affidabilità.
“Le armi parzialmente autonome, come quelle utilizzate oggi in Ucraina” — scrive Amodei— “sono fondamentali per la difesa della democrazia. Anche le armi completamente autonome … possono rivelarsi fondamentali per la nostra difesa nazionale. Tuttavia, oggi i sistemi di IA all’avanguardia non sono sufficientemente affidabili per alimentare armi completamente autonome. Non forniremo consapevolmente un prodotto che metta a rischio i combattenti e i civili americani. … Inoltre, senza un adeguato controllo, non è possibile fare affidamento sulle armi completamente autonome per esercitare il giudizio critico che le nostre truppe altamente addestrate e professionali dimostrano ogni giorno. Devono essere impiegate con adeguate misure di sicurezza, che oggi non esistono.” (enfasi aggiunta).
Dunque, la posizione di Anthropic sull’uso militare dell’AI, anche se non espressamente formulata in questi termini, si potrebbe interpretare così: non siamo contrari all’uso dei nostri software per creare armi totalmente autonome se ci fosse la garanzia che queste armi non siano un rischio per chi le usa (ma non per chi ne subisce gli effetti).
Detta diversamente, e in coerenza con una filosofia della guerra basata sul realismo politico, ciò che conta è che le armi autonome sia sicure per chi “preme il bottone” e poco importa se fra i bersagli ci sono anche i civili, perché in guerra ci sono sempre le casualty o i collateral damage —i danni collaterali. Basta che non siano i “nostri” civili, ma quelli dell’altra parte.
Regolare le macchine o le scelte politiche?
La (quasi) ingenua sincerità delle parole di Amodei evidenzia ancora una volta l’errore strutturale nel quale inciampano sistematicamente parlamenti e governi di mezzo mondo: pensare di dover regolare gli strumenti invece delle conseguenze derivanti dal loro utilizzo.
Gli accordi per il controllo sulle tecnologie nucleari e quelli sul divieto assoluto dello sviluppo di armi batteriologiche sono stati motivati non da questioni “etiche” o “tecnologiche” ma dalla considerazione che la letalità del loro uso avrebbe garantito la mutually assured destruction o comunque degli esiti incontrollabili. Per converso, dunque, tutto quello che non raggiunge questa soglia è “liberamente” utilizzabile, incluse le armi autonome controllate dall’AI.
Riformulata in questi termini, dunque, la questione generale dell’uso militare dell’AI diventa molto più comprensibile e si riassume in tre domande molto semplici: quanto letali devono essere le armi del nostro arsenale, se dobbiamo progettarle in modo da poterne controllare il funzionamento e quanto dobbiamo preoccuparci del fatto che possano uccidere civili non combattenti, pardon, causare danni collaterali.
Possibly Related Posts:
- La California prova a risolvere diversamente il problema dell’età online
- Il nuovo esercito di terracotta dell’impero cinese è fatto di robot
- L’Europarlamento blocca l’IA sui cellulari dei deputati. Non per questo siamo più sicuri, anzi
- La tutela dei minori come nuovo confine industriale dei servizi digitali
- Difendersi sempre, controllare tutto: il prezzo invisibile della sicurezza digitale
