Il Presidente americano Donald Trump ha appena deciso di escludere la Anthropic dagli appalti federali perché la società di proprietà della famiglia Amodei – originaria di Massa Marittima, nel grossetano – si è rifiutata di togliere i limiti previsti per i propri sistemi di Intelligenza artificiale per l’uso militare e di sorveglianza di massa da parte del governo degli Stati Uniti.
Anthropich nasce dalla rottura tra gli Amodei e OpenAI che nell’arco dei prossimi sei mesi sostituirà la società della famiglia italoamericana che si rifiuta di ignorare i grandi rischi legati all’applicazione indiscriminata dell’Intelligenza artificiale ai sistemi militari.
Un tema delicato su cui l’Amministrazione Trump sorvola presa com’è in un delirio di disumanizzazione delle relazioni umane e politiche. E su questo tema invitiamo a leggere il seguente intervento del New York Times, a firma di Adam Satariano, Julian E. Barnes, e Sheera Frenkel, liberamente ripreso e tradotto
La battaglia tra il Dipartimento della Difesa e la società di intelligenza artificiale Anthropic è apparentemente vertente su un contratto da 200 milioni di dollari per l’uso dell’intelligenza artificiale nei sistemi classificati. Ma mentre le due parti si avvicinano alla scadenza delle 17:01 di venerdì (nel frattempo annullato da Trump, ndr) per definire i termini del contratto, la posta in gioco è molto più alta .
Tra il gergo legale e la retorica accesa, a livello globale si pongono domande su come utilizzare l’intelligenza artificiale, quali siano i rischi della tecnologia e chi può decidere di stabilire eventuali limiti: i creatori dell’intelligenza artificiale o i governi nazionali. Alla base di tutto c’è la paura e lo stupore per il ritmo vertiginoso del progresso dell’Intelligenza artificiale e per l’impatto incerto della tecnologia sulla società.
“Una disputa del genere era inevitabile”, ha affermato Michael C. Horowitz, che ha lavorato sulle questioni relative alle armi basate sull’intelligenza artificiale presso il Dipartimento della Difesa durante l’amministrazione Biden. “Poiché la tecnologia sta avanzando così rapidamente, ora stiamo affrontando questi dibattiti. L’intelligenza artificiale è passata dall’essere un argomento di nicchia a qualcosa di realmente centrale nel potere globale”.
Un’ora prima della scadenza di venerdì, il presidente Trump è intervenuto sulla battaglia, scrivendo sui social media che “NON PERMETTERÀ MAI A UN’AZIENDA RADICALE DI SINISTRA E SVEGLIA DI DETTARE COME IL NOSTRO GRANDE MILITARE COMBATTE E VINCE LE GUERRE!”. Questa decisione, ha detto, “appartiene al VOSTRO COMANDANTE IN CAPO e agli straordinari leader che nomino per gestire il nostro esercito”.
Lo scontro è incentrato sull’utilizzo da parte del Pentagono di una versione classificata del modello di intelligenza artificiale di Anthropic, Claude. L’azienda vuole integrare misure di sicurezza nella sua tecnologia per impedirne l’uso per la sorveglianza di massa degli americani o in armi completamente autonome senza l’intervento umano.
Il Pentagono ha affermato di non avere intenzione di utilizzare la tecnologia per tali scopi, ma che un appaltatore privato non può decidere in che modo i suoi strumenti saranno utilizzati legalmente per la sicurezza nazionale, proprio come un produttore di armi non può stabilire dove sganciare i suoi missili.
Al Pentagono, la disputa arriva in un momento importante. Il Segretario alla Difesa Pete Hegseth, ex collaboratore di Fox News che ha criticato duramente politiche e aziende che considera troppo progressiste, vuole integrare in modo aggressivo l’intelligenza artificiale nella pianificazione bellica e nello sviluppo di armi. Hegseth fa eco a Trump, che ha fatto dell’espansione dell’intelligenza artificiale un pilastro delle sue politiche.
Ma Anthropic, un’azienda fondata cinque anni fa e con un valore di circa 380 miliardi di dollari , ha puntato sulla sicurezza dell’intelligenza artificiale e ha sollevato preoccupazioni sui pericoli della tecnologia, pur collaborando con le agenzie di difesa e di intelligence statunitensi. È l’unica azienda di intelligenza artificiale attualmente operativa sui sistemi classificati del Pentagono.
Negli ultimi giorni, il Pentagono e Anthropic non hanno mostrato segni di cedimento . Sean Parnell, portavoce del Pentagono, ha pubblicato giovedì sui social media che il Pentagono ha chiesto ad Anthropic di consentirgli di utilizzare l’intelligenza artificiale “per tutti gli scopi legittimi”, affermando che si trattava di una “richiesta di buon senso”. In risposta, Dario Amodei, amministratore delegato di Anthropic, ha affermato che le minacce del Pentagono “non cambiano la nostra posizione: non possiamo in coscienza accogliere la loro richiesta”. Anthropic era pronta a perdere il suo contratto governativo e ad aiutare il Pentagono nella transizione alla tecnologia di un’altra azienda, ha affermato.
Senza un compromesso, il signor Hegseth ha minacciato di invocare il Defense Production Act, raramente utilizzato, per costringere Anthropic a collaborare con lui alle sue condizioni, oppure di designare l’azienda come una minaccia per la catena di approvvigionamento e impedirle di fare affari con il governo.
Giovedì, circa 50 dipendenti di OpenAI e 175 dipendenti di Google hanno pubblicato una lettera in cui invitavano i loro dirigenti a “rifiutare le attuali richieste del Dipartimento della Guerra”. Oltre 100 dipendenti che lavorano sulla tecnologia di intelligenza artificiale di Google hanno espresso preoccupazione in un’altra lettera ai dirigenti aziendali in merito alla collaborazione con il Pentagono. Anche importanti esperti di tecnologia, tra cui Jeff Dean, un alto dirigente di Google, hanno espresso preoccupazione per l’uso improprio dell’intelligenza artificiale a fini di sorveglianza.
Poco più di due anni fa, la sicurezza e la regolamentazione dell’IA erano una delle principali preoccupazioni. In un vertice globale ospitato in Gran Bretagna dall’allora Primo Ministro Rishi Sunak, Stati Uniti, Cina e altri 26 Paesi hanno firmato un impegno per affrontare alcuni dei potenziali rischi della tecnologia, come la possibilità di fornire agli hacker nuovi metodi di attacco e l’accelerazione della disinformazione.
L’Unione Europea, che ha approvato normative di vasta portata sull’intelligenza artificiale nel 2024, sta ora valutando la possibilità di revocarne alcune. Alle Nazioni Unite, un impegno durato anni per vietare alcune armi basate sull’intelligenza artificiale è stato bloccato dall’opposizione di Stati Uniti, Russia e altri paesi.
Sul campo di battaglia, la guerra in Ucraina ha inaugurato un’era di guerra con i droni, che ha trasformato le armi autonome da una possibilità futuristica a una realtà a breve termine.
“Man mano che l’intelligenza artificiale diventa più potente e capace, anche gli incentivi a utilizzarla diventano molto più forti”, ha affermato Helen Toner, esperta di policy in materia di intelligenza artificiale presso la Georgetown University ed ex membro del consiglio direttivo di OpenAI. “Allo stesso tempo, la voglia di parlare dei rischi e di come risolverli è diminuita”.
La Toner ha affermato che la disputa tra Anthropic e il Pentagono ha evidenziato una disconnessione fondamentale. A Washington, i funzionari considerano l’intelligenza artificiale un nuovo strumento che può essere sfruttato per obiettivi specifici. Nella Silicon Valley, i creatori della tecnologia la vedono diventare sempre più simile a un'”entità” con un ragionamento sofisticato che può comportarsi in modi inaspettati e pericolosi senza supervisione e perfezionamento, ha affermato.
La battaglia tra il Pentagono e Anthropic è iniziata il 9 gennaio, quando Hegseth ha pubblicato un promemoria in cui chiedeva alle aziende di intelligenza artificiale di rimuovere le restrizioni sulle loro tecnologie.
“È giunto il momento di accelerare l’integrazione dell’intelligenza artificiale e metteremo tutto il peso della leadership del Dipartimento, delle sue risorse e del crescente numero di partner del settore privato per accelerare il predominio dell’intelligenza artificiale militare americana”, ha scritto.
Alla base della strategia di Hegseth c’era un cambiamento radicale nella tecnologia militare. L’hardware sta attraversando un periodo di declino. Gli appaltatori militari hanno faticato a consegnare navi e aerei da combattimento nei tempi e nel budget previsti.
Il software è diventato uno strumento sempre più potente. Dirigenti del settore tecnologico, tra cui Alex Karp, amministratore delegato della società di analisi dati Palantir, che collabora a stretto contatto con il governo federale, sostengono che il vantaggio competitivo degli Stati Uniti rispetto ai concorrenti risiederà nei progressi compiuti nel campo del software.
Anthropic si è dimostrata un partner disponibile, fornendo al governo una versione speciale di Claude con meno restrizioni. Eppure, alcuni al Pentagono guardavano la startup con sospetto. La sua disponibilità a parlare di rischi per la sicurezza ha scoraggiato alcuni membri del dipartimento, che hanno definito l’azienda di San Francisco “woke”.
Quando sono iniziati i colloqui tra il Pentagono e Anthropic su un contratto da 200 milioni di dollari per l’uso dell’intelligenza artificiale nei sistemi classificati, gli avvocati di entrambe le parti si sono scambiati segretamente email sul testo del contratto, hanno affermato due persone coinvolte nelle discussioni.
Anthropic ha chiesto due cose. L’azienda ha dichiarato di essere disposta ad allentare le restrizioni sulla tecnologia, ma ha chiesto delle misure per impedire che la sua IA venga utilizzata per la sorveglianza di massa degli americani o impiegata in armi autonome senza il coinvolgimento umano. Senza queste misure, Anthropic rischia di danneggiare la sua reputazione di azienda che mette la sicurezza al primo posto. “Si tratta in realtà del potere dello Stato di determinare come l’Intelligenza artificiale viene implementata nel mondo rispetto alle aziende”, ha affermato Robert Trager, co-direttore della Martin AI Governance Initiative dell’Università di Oxford.