Scade oggi l’ultimatum del Pentagono ad Anthropic, l’azienda di intelligenza artificiale che si ispira ai valori delle Nazioni Unite e della Dichiarazione Universale dei Diritti Umani.
Nei giorni scorsi, il segretario alla Difesa Pete Hegseth aveva fissato la scadenza del 27 febbraio 2026: o Anthropic eliminava tutti i limiti etici sull’uso militare della sua AI, o avrebbe perso contratti milionari e rischiato sanzioni.
L’azienda, guidata da Daniela Amodei con il fratello Dario (foto in alto), quarantenni che l’hanno fondata nel 2021, ha risposto con un fermo “no”.
Il loro chatbot “Claude” si distingue proprio per questo approccio etico: niente sorveglianza di massa e nessun coinvolgimento nello sviluppo di armi autonome capaci di colpire senza controllo umano.
Una linea considerata troppo rigida dal Pentagono, ma per Anthropic è un principio non negoziabile.
La tensione va avanti da mesi. Il Dipartimento della Difesa considera i modelli dell’azienda tra i più avanzati per intelligence e sistemi militari e vorrebbe piena libertà di utilizzo.
Dopo il rifiuto, Washington ha iniziato a guardare ad alternative come OpenAI, Google e xAI, ma il divario tecnologico resta ampio.
Non si tratta solo di un contratto. È uno scontro di visione: sicurezza nazionale senza limiti o intelligenza artificiale con paletti etici chiari?
La domanda resta aperta: chi deve decidere fino a dove può spingersi l’AI militare - gli Stati o le aziende che la costruiscono?
Per approfondire: “Scienziate nel tempo. Più di 100 biografie dall’ antichità all’IA”, (Ledizioni 2026).
Sara Sesti
Matematica, ricercatrice in storia della scienza
Collabora con l'Università delle donne di Milano
facebook.com/scienziateneltempo/

