Quando lo Stato chiede all’AI di non avere freni
Il caso Anthropic-Pentagono non è solo una disputa commerciale. È uno scontro su chi decide cosa una macchina può fare e cosa succede a chi non si adegua.
Costruite un prodotto, lo vendete al vostro principale cliente istituzionale, poi arriva la richiesta: “togliete certi limiti, oppure vi trattiamo come un avversario straniero”.
Non un concorrente, un avversario, con tutto quello che ne consegue sul piano dei contratti, della reputazione, della sopravvivenza commerciale.
È esattamente quello che è successo tra Anthropic e il Dipartimento della Difesa americano, che l’amministrazione Trump ha ormai ribattezzato ufficialmente “Department of War” (Dipertimento della Guerra), dettaglio semantico che dice già qualcosa sullo spirito del momento.
Le richieste erano due: rimuovere i vincoli che impedivano l’uso del modello AI Claude per la sorveglianza di massa dei cittadini americani e abilitarne l’impiego in sistemi d’arma completamente autonomi.
Anthropic ha detto no.
Il Pentagono ha risposto designandola quale rischio per la catena di fornitura e Trump ha ordinato a tutte le agenzie federali di cessare immediatamente l’uso dei suoi prodotti.
Vale la pena capire perché questa storia non riguarda solo un’azienda californiana e il suo contratto da 200 milioni di dollari.
Due no, e il loro peso
Le motivazioni di Anthropic per i suoi due rifiuti sono state esposte con rara chiarezza pubblica dall’amministratore delegato Dario Amodei in un comunicato del 26 febbraio 2026.
Un documento che vale la pena leggere per intero, non per fiducia cieca, ma perché raramente si vedono aziende tech articolare in modo così esplicito le ragioni di uno scontro con un governo.
Di solito queste cose si sistemano in silenzio, con un rinnovo contrattuale e qualche clausola riformulata.
Sul fronte delle armi completamente autonome, la posizione è tecnica prima ancora che etica: i modelli AI attuali non sono abbastanza affidabili per prendere decisioni letali senza supervisione umana.
Non è un’obiezione di principio all’uso militare dell’intelligenza artificiale. Anthropic lavora con le forze armate americane dal giugno 2024, è stata la prima azienda di frontiera ad essere ammessa nelle reti classificate del governo e Claude viene usato per analisi di intelligence, pianificazione operativa e operazioni informatiche.
L’obiezione riguarda uno specifico livello di autonomia che oggi la tecnologia non può gestire in modo sicuro. In sostanza le armi parzialmente autonome, quelle in uso in Ucraina, sono un conto, una macchina che seleziona e ingaggia un bersaglio senza che un essere umano possa intervenire è un altro.
Sulla sorveglianza di massa, il ragionamento è diverso e più diretto: si tratta di una violazione dei valori democratici fondamentali, indipendentemente dalla sua attuale legalità formale.
Amodei cita esplicitamente il problema dei dati commerciali, sotto la legge americana vigente, il governo può acquistare da fonti private dati dettagliati sui movimenti, la navigazione web e le associazioni dei cittadini senza mandato.
L’AI trasforma questa pratica già problematica in qualcosa di qualitativamente diverso: permette di assemblare dati dispersi e apparentemente innocui in un profilo completo di qualsiasi persona, in modo automatico e su scala massiva.
Non è un’ipotesi futura, oggi è tecnicamente possibile.
Queste due posizioni non erano nuove, erano già nei contratti precedenti con il Pentagono, mai contestate fino a questo momento.
Il meccanismo della pressione
Il punto che merita attenzione non è tanto il merito delle due posizioni, che sono nel complesso razionalmente difendibili, quanto il meccanismo con cui il governo americano ha tentato di modificarle.
Non una norma, non una legge, non un procedimento regolatorio.
Una minaccia economica diretta: adeguatevi o perdete il contratto, e se non basta, vi designiamo come rischio per la sicurezza nazionale, la stessa categoria riservata storicamente ad Huawei, a entità cinesi, a soggetti considerati avversari geopolitici degli Stati Uniti, oppure invochiamo il Defense Production Act, una legge dell’epoca della Guerra di Corea, per costringervi a cedere.
Come ha fatto notare lo stesso Amodei, le due minacce sono logicamente contraddittorie: non si può essere contemporaneamente un rischio per la sicurezza nazionale e una tecnologia così essenziale da richiedere una legge di emergenza per garantirsene l’accesso, ma la contraddizione è probabilmente intenzionale, non serve la coerenza giuridica, serve la pressione.
Questo è il precedente più insidioso dell’intera vicenda, non il singolo caso Anthropic, ma il modello operativo che dimostra quando un’azienda tecnologica tiene il punto su limiti etici o tecnici che il governo non gradisce, lo strumento disponibile per forzare la mano è la leva economica.
Il messaggio, per chiunque altro nel settore, era nitido: cedere conviene.
OpenAI e lo specchio perfetto
La storia, però, ha un capitolo che cambia tutto o, almeno, cambia il modo in cui va letta.
Mentre Anthropic veniva di fatto bandita dal governo federale americano, OpenAI annunciava di aver raggiunto un accordo con il Pentagono per rendere operativi i propri modelli nelle reti classificate.
La coincidenza era difficile da ignorare, l’accordo è stato comunicato da Sam Altman poche ore dopo il bando a carico di Anthropic.
OpenAI ha negoziato includendo le stesse limitazioni di principio che Anthropic aveva difeso: niente sorveglianza di massa dei cittadini americani, niente armi completamente autonome senza supervisione umana.
Con una differenza rilevante sul piano tecnico: il Pentagono ha accettato che OpenAI costruisse un proprio sistema di salvaguardie, che i modelli restassero in ambienti protetti e non venissero distribuiti su sistemi periferici come droni e velivoli, e che se il modello rifiuta un’istruzione il governo non possa forzarlo a eseguirla.
Le stesse condizioni che con Anthropic non si era riusciti a formalizzare.
Il risultato pratico è che il governo americano ha ottenuto un fornitore alternativo, ma con garanzie sostanzialmente analoghe a quelle che aveva rifiutato dal precedente.
Qualcuno ha ceduto la forma, la sostanza è rimasta ferma.
Il concorrente generoso
Vale la pena chiedersi quanto l’accordo di OpenAI con il Pentagono rifletta una convergenza di valori e quanto invece una convergenza di interessi.
OpenAI opera in un mercato che si è fatto improvvisamente più competitivo. L’emergere di modelli cinesi come DeepSeek ha ridisegnato le percezioni sul dominio americano nell’intelligenza artificiale e la pressione sulle valutazioni e sui ricavi di OpenAI è reale.
Un contratto istituzionale di questa portata, ottenuto nel momento esatto in cui il principale rivale veniva estromesso, ha un valore che va ben oltre i suoi termini tecnici e consolida la posizione di OpenAI come interlocutore privilegiato del governo americano in un settore strategico.
C’è un dettaglio che merita attenzione in questa chiave, Altman ha chiesto esplicitamente che le stesse condizioni negoziate da OpenAI vengano estese a tutti i laboratori AI.
In superficie sembra un gesto di solidarietà di settore, letto nel contesto competitivo, produce un effetto diverso: livella il campo eliminando il vantaggio reputazionale che Anthropic aveva costruito negli anni proprio sulla sicurezza come identità di prodotto.
Se tutti operano con le stesse linee rosse, quella distinzione svanisce.
Non è un’accusa, è un’osservazione strutturale che il lettore può valutare autonomamente. Le intenzioni individuali contano meno del risultato e il risultato è che il principale concorrente di OpenAI è stato estromesso dal mercato istituzionale americano nel giro di una settimana, mentre OpenAI ne prendeva il posto con condizioni che il Pentagono aveva appena finito di definire inaccettabili.

Anthropic non è un eroe
A questo punto è doverosa una precisazione, perché la tentazione narrativa di trasformare questa vicenda in un racconto a due personaggi, il governo aggressivo e l’azienda coraggiosa, è forte ma fuorviante.
Anthropic è una società commerciale che ha costruito la propria identità di mercato sull’AI sicura.
La sicurezza etica non è solo un valore, è il prodotto, il differenziatore competitivo, quello che giustifica la fiducia degli investitori e la reputazione globale.
Cedere su sorveglianza di massa e armi autonome non sarebbe stato soltanto una scelta morale sbagliata, sarebbe stato un danno commerciale difficilmente recuperabile su scala internazionale, in mercati europei e asiatici dove la sensibilità su questi temi è alta.
In più, Anthropic non si oppone in linea di principio alla militarizzazione dell’AI, si è opposta a due usi specifici, continuando a supportare tutto il resto, il che rende la sua posizione più comprensibile, e quindi più utile da analizzare, di quanto un racconto eroico permetterebbe.
Le aziende tengono il punto quando conviene farlo, chi ha seguito qualche negoziazione con la pubblica amministrazione lo sa già, la conseguenza pratica è stata giusta, le motivazioni erano miste, è quasi sempre così.
Il quadro giuridico e i suoi limiti
Sul piano formale, Anthropic ha contestato anche la portata legale della designazione come rischio per la catena di fornitura, puntando sul testo del 10 USC 3252, la norma che disciplina queste misure.
La lettura dell’azienda è che la norma consente di limitare l’uso di un prodotto nell’ambito dei contratti del Dipartimento della Difesa, non di estendere automaticamente il divieto a qualsiasi rapporto commerciale del contraente.
In pratica: un appaltatore militare potrebbe non poter usare Claude per lavori governativi, ma potrebbe continuare a usarlo per i propri clienti privati.
Anthropic ha annunciato che impugnerà qualsiasi designazione formale in sede giudiziaria. I tribunali federali americani hanno una lunga storia di decisioni in materia di libertà d’impresa e limitazioni governative ai mercati privati. Non è affatto scontato che il governo abbia ragione sul piano legale.
Ma il danno reputazionale, e il segnale politico inviato all’intero settore, era già prodotto prima che qualsiasi tribunale potesse pronunciarsi.
Perché riguarda anche noi
Il meccanismo descritto non è un’anomalia americana, è il modello che i governi adottano, con varianti, ogni volta che la tecnologia anticipa la regolazione.
In Europa, il GDPR, il DSA e l’AI Act sono il tentativo di costruire perimetri normativi formali attorno agli usi dell’AI e dei dati personali.
La sorveglianza di massa non è una minaccia astratta futura, in Italia esistono già sistemi come VeRa, la piattaforma dell’Agenzia delle Entrate che incrocia automaticamente decine di banche dati per profilare i contribuenti.
A livello europeo, proposte come Chat Control hanno tentato di rendere sistematica la scansione delle comunicazioni private in nome della sicurezza dei minori.
Il confine tra strumento di sicurezza legittimo e sistema di controllo generalizzato è esattamente quello che Anthropic ha provato a difendere, non per altruismo, ma perché era nel suo interesse farlo.
La differenza tra il caso americano e il contesto europeo non è nella natura del problema, è nel fatto che in Europa la pressione avviene attraverso la regolazione formale, mentre negli Stati Uniti è avvenuta attraverso la leva contrattuale informale.
Il risultato finale è lo stesso.

La domanda che resta
C’è qualcosa che questa vicenda non risolve e che vale la pena tenere in sospeso come domanda strutturale, indipendentemente da come evolveranno i contenziosi legali.
Se Anthropic avesse ceduto silenziosamente, se avesse rimosso i limiti su sorveglianza e armi autonome in un rinnovo contrattuale ordinario, senza comunicati pubblici e senza polemiche, quanti di noi lo avrebbero saputo?
Probabilmente nessuno.
Gli accordi tra aziende tech e agenzie di sicurezza non finiscono sui comunicati stampa, finiscono nei documenti classificati, quando va bene.
Il fatto che questa vicenda sia stata resa pubblica e che la pubblicità stessa sia diventata uno strumento di resistenza, con dipendenti che firmano lettere aperte e amministratori delegati che pubblicano posizioni prima ancora che gli accordi siano firmati, è già un’anomalia, non una norma.
La prossima volta che un governo chiederà a un’azienda di AI di togliere i freni, probabilmente non lo sapremo.
Aggiornamento — 1 Marzo 2026:
Mentre questo articolo veniva chiuso, il Wall Street Journal ha rivelato che il Comando Centrale americano ha utilizzato Claude di Anthropic durante gli attacchi in Iran del 28 febbraio per analisi di intelligence, identificazione di obiettivi e simulazioni di scenari di combattimento.
L’ordine di Trump di cessare l’uso dei prodotti Anthropic era arrivato poche ore prima, lo stesso modello era già stato impiegato nell’operazione che aveva portato alla cattura di Nicolás Maduro.
Questi usi rientrano nelle categorie che Anthropic aveva sempre accettato.
Il conflitto con il Pentagono riguardava due casi specifici: sorveglianza di massa e armi completamente autonome.
Il sistema era talmente integrato nei flussi operativi militari da non poter essere rimosso in tempo reale nemmeno dopo un ordine presidenziale.
Questo non è un paradosso, è la dimostrazione più nitida del punto centrale di questo articolo: quando una tecnologia entra nelle infrastrutture critiche, il potere formale di “spegnerla” diventa in larga misura teorico.
Di questo scenario e delle sue implicazioni operative parlerò in un video dedicato nelle prossime settimane.
🔔 Vuoi restare aggiornato ogni settimana su contenuti legali, attualità e consigli pratici?
Iscriviti gratuitamente a uno dei miei canali:
– 🟢 WhatsApp → https://avvocatonardini.it/whatsapp
– 🔵 Telegram → https://t.me/stefano_nardini
– 🔴 YouTube → https://www.youtube.com/@StefanoNardiniStudio

Autore: Avv. Stefano Nardini
Avvocato, esperto in diritto delle nuove tecnologie, privacy e sicurezza informatica. Opera da oltre 20 anni nella consulenza per imprese, professionisti ed enti pubblici su GDPR, compliance e innovazione digitale. Data Protection Officer e Privacy Officer certificato.
Si occupa inoltre di diritto civile e penale, con esperienza in contenzioso, contrattualistica, responsabilità civile, reati connessi all’ambito digitale (cybercrime, trattamento illecito dei dati) e difesa penale tradizionale.
Lavora sul fronte della prevenzione e della gestione pratica dei rischi, unendo competenza tecnica e attenzione ai principi di giustizia ed etica.
🔗 Scopri di più sull’autore
L’autore ha impiegato strumenti di intelligenza artificiale come supporto redazionale, curando personalmente la selezione, l’organizzazione e la verifica rigorosa dei contenuti.
Condividi, scegli il tuo social network!
NEWSLETTER
Ti è piaciuto questo articolo? Ricevi via email i nuovi contenuti su privacy, tecnologia e diritto digitale.
Niente spam, solo contenuti di valore.
Cancellazione immediata quando vuoi.
