Anthropic, società fondata a San Francisco dai fratelli Dario e Daniela Amodei, leader nei modelli di Intelligenza artificiale, si è aggiudicata il primo round in Tribunale in una contesa contro il governo degli Stati Uniti che si annuncia comunque lunga. La giudice federale di San Francisco, Rita Lin, ha ritenuto valide le preoccupazioni di Anthropic, bloccando temporaneamente la possibilità per il Pentagono di considerare la società di Dario Amodei come un rischio per la catena di approvvigionamento. Lin ha bloccato anche una direttiva del presidente Donald Trump che imponeva a tutte le agenzie federali di interrompere l’utilizzo di Anthropic. Un danno di reputazione, oltre che economico.
Anthropic ha affermato che le sue attività sono state danneggiate dal governo con conseguente violazione del diritto alla libertà di parola. La sentenza della giudice Lin, lunga 43 pagine, è giunta nei giorni scorsi, dopo un’udienza di novanta minuti, e ha consentito di fare chiarezza sulle azioni avviate dall’amministrazione Trump. All’inizio di marzo il Pentagono aveva definito i prodotti di Anthropic un «rischio per la catena di approvvigionamento» in merito all’utilizzo del chatbot Claude. Per la prima volta il governo ha considerato «poco affidabile» un’azienda statunitense fornitrice di servizi e tecnologie avanzate. Una mossa che ha fatto temere una reazione a catena, dato che altri appaltatori governativi potrebbero cessare di avvalersi dell’Intelligenza artificiale fornita da Claude.
Nella sentenza del Tribunale californiano si sostiene che le «ampie misure punitive» adottate contro Anthropic dall’amministrazione Trump e dal Segretario alla Difesa, Pete Hegseth, avevano un carattere arbitrario e pretestuoso con il rischio di «paralizzare Anthropic». «Nulla nella legge in materia – ha scritto la giudice Lin - supporta l’idea orwelliana che un’azienda americana possa essere etichettata come potenziale avversaria e sabotatrice degli Stati Uniti per aver espresso disaccordo con il governo». All’amministrazione Trump è stata contestata la misura straordinaria punitiva adottata contro Anthropic, dopo che l’azienda californiana aveva cercato di limitare l’impiego della sua tecnologia in ambito militare. La società di Amodei si è rifiutata di concedere, senza limiti e senza il controllo diretto, l’impiego di Claude nella sorveglianza interna di massa e nelle armi completamente autonome all’interno di un contratto con il Pentagono del valore di 200 milioni di dollari. Da qui la ritorsione del governo.
Il Dipartimento guidato da Hegseth ha sostenuto che «l’esercito deve poter utilizzare la tecnologia per tutti gli scopi legittimi» e che «non permetterà a un fornitore di inserirsi nella catena di comando, limitando l’uso lecito di una capacità critica e mettendo a rischio i nostri combattenti». Di tutt’altro avviso Anthropic, che sin dalla sua fondazione ha evidenziato l’enorme impatto dell’Intelligenza artificiale con una mission precisa: garantire i benefici dell’IA e mitigarne i rischi.
Anthropic ha chiesto un provvedimento d’urgenza per iniziare a fare chiarezza sulla condotta dell’amministrazione Trump, poco disponibile a ricevere risposte negative dai suoi interlocutori. «Dagli atti – ha rilevato la giudice del Tribunale per il distretto settentrionale della California - emerge che Anthropic viene punita per aver criticato la posizione del governo in merito agli appalti, attraverso la stampa. Se la preoccupazione riguarda l’integrità della catena di comando operativa, il Dipartimento della Guerra potrebbe semplicemente smettere di usare Claude. Invece, certe misure sembrano concepite per punire Anthropic». Il provvedimento del Tribunale di San Francisco è stato sospeso per una settimana e non obbliga il Pentagono a utilizzare i prodotti di Anthropic né gli impedisce di passare ad altri fornitori di intelligenza artificiale. I legali dell’azienda leader nell’IA hanno presentato un ricorso separato e più circoscritto, tuttora pendente presso la Corte d’Appello federale di Washington, D.C.
Una portavoce di Anthropic ha dichiarato che l’azienda è grata all’autorità giudiziaria «per la rapidità con cui ha agito» e che il suo obiettivo «rimane quello di collaborare in modo produttivo con il governo per garantire che tutti gli americani possano beneficiare di un’Intelligenza artificiale sicura e affidabile». Diverso il parere del responsabile tecnologico del Dipartimento della Difesa (e della Guerra), Emil Michael, che ha definito la sentenza della giudice Lin «una vergogna». Quanto deciso nei giorni scorsi segna di sicuro un punto a favore di Anthropic. Alcuni avvocati e lobbisti predicano però cautela e sostengono che la decisione del giudice di San Francisco non dissolverà «la nube di incertezza» che si è addensata sia su Anthropic che sull’intero settore tecnologico dell’IA. «In pratica – ha riferito a “Politico” Charlie Bullock, avvocato e ricercatore senior presso l’Institute for Law and AI think tank -, non è cambiato molto per quanto riguarda la designazione della catena di approvvigionamento di Anthropic a seguito dell’ingiunzione preliminare. Credo che gran parte della reazione pubblica sia prematura e non rifletta una reale comprensione della situazione».