Il 24 febbraio 2026 rimarrà una data spartiacque per l'industria dell'intelligenza artificiale. Il Segretario della Difesa, Pete Hegseth, ha posto Anthropic di fronte a una scelta binaria: accettare un contratto da 200 milioni di dollari modificando i propri protocolli di sicurezza, o essere estromessa dai giochi.
La richiesta del Pentagono era chiara: l'intelligenza artificiale Claude avrebbe dovuto operare per "ogni scopo lecito", eliminando di fatto i filtri etici contro la sorveglianza di massa e l'automazione tattica nei sistemi d'arma. Per un'azienda che ha costruito il proprio vantaggio competitivo sulla "Constitutional AI", questa non era una clausola tecnica, ma una minaccia esistenziale all'integrità del proprio codice.
Il grande rifiuto di Dario Amodei
La risposta del CEO di Anthropic non si è fatta attendere. Nonostante la pressione di essere classificati come "rischio per la catena di approvvigionamento" (etichetta solitamente riservata ad aziende legate a governi ostili), Amodei ha confermato il rifiuto.
La posizione dell'azienda è cristallina: determinati usi dell'AI possono minare i valori democratici anziché difenderli. La dirigenza ha sottolineato che le attuali tecnologie non sono ancora sufficientemente affidabili per gestire in autonomia l'uso della forza. Questa scelta ha trasformato Anthropic da semplice fornitore tecnologico a simbolo di una resistenza etica che preferisce l'isolamento federale al compromesso dei valori.
L'ascesa di OpenAI e il bando federale
La reazione politica è stata immediata e punitiva. L'amministrazione Trump ha ordinato il bando di Anthropic da tutte le agenzie federali, imponendo un termine di sei mesi per l'estromissione di Claude dai sistemi governativi. In questo vuoto di potere si è inserita OpenAI.
Poche ore dopo la rottura, Sam Altman ha annunciato un accordo con il Dipartimento della Guerra (DoW) per schierare i propri modelli nelle reti classificate. OpenAI ha accettato di fornire "salvaguardie tecniche" concordate con i vertici militari, posizionandosi come il partner tecnologico primario della difesa statunitense e scavando un solco profondo tra chi collabora con lo Stato e chi sceglie l'autonomia.
Il paradosso tattico nelle operazioni in Iran
Mentre la politica decretava l'espulsione di Anthropic, la realtà operativa sul campo raccontava una storia diversa. Secondo indiscrezioni del Wall Street Journal, durante i recenti raid in Iran, il Comando Centrale degli Stati Uniti ha continuato a utilizzare Claude per l'identificazione degli obiettivi e l'analisi di intelligence.
È l'ironia suprema della tecnologia moderna: il governo dichiara uno strumento un "pericolo pubblico" per decreto, ma i suoi analisti lo preferiscono per la sua precisione superiore e affidabilità nel gestire dati sensibili. Questo dato conferma che, nel settore della difesa, la qualità dell'output spesso prevale sulle direttive burocratiche.
La strategia di mercato: il "trasloco" dei dati
Tagliata fuori dai ricchi contratti governativi, Anthropic ha reagito puntando tutto sul mercato civile e sulla privacy. Ha lanciato una funzione di "importazione memoria" che permette agli utenti di migrare la propria intera cronologia da ChatGPT o Gemini a Claude in soli 60 secondi. Questa mossa non è solo tecnica, ma di posizionamento: Anthropic sta capitalizzando sulla percezione di essere l'unica AI "non controllata" dal governo, trasformando il bando federale in un certificato di garanzia per la riservatezza dei dati aziendali e privati.
Proprio grazie a questa mossa, Claude raggiunge la prima posizione su Apple store dopo l'annuncio delle nuove funzioni di privacy con centinaia di migliaia di nuovi download.
Analisi del settore e riflessi finanziari
Sebbene Anthropic sia una società privata, l'impatto di queste dinamiche si riflette direttamente sui giganti quotati che orbitano attorno all'intelligenza artificiale. Il settore sta vivendo una divergenza di valutazione: da un lato OpenAI (sostenuta da Microsoft) consolida il proprio ruolo di infrastruttura statale, dall'altro Anthropic attira capitali focalizzati sull'indipendenza e la cybersecurity.
Fonte: IG
A causa di questa situazione, Anthropic ha perso circa l'11% di quotazione di mercato (pre quotazione) ritornando ad una valutazione di 520 miliardi di dollari. Come mostra il grafico qui in alto del broker IG, l'azienda di Dario Amodei non se la sta passando benissimo ma proprio questo sell-off potrebbe rappresentare un'opportunità. Tramite il broker IG infatti, è possibile fare trading su aziende non ancora quotate (come Anthropic). È possibile aprire un conto di trading gratuito direttamente qui: LINK.
Terremo monitorata la situazione in un contesto dove l'appetito degli investitori per Anthropic potrebbe tornare a crescere molto velocemente proprio per le sue scelte fuori dal coro.
Disclaimer: File MadMar.