Indietro

Elizabeth Warren: 'Pentagono si vendica di Anthropic per l'etica sull'AI'

La senatrice Elizabeth Warren accusa il Pentagono di ritorsione contro Anthropic per il rifiuto di compromettere l'etica sull'uso militare dell'AI, sollevando dubbi sui nuovi contratti.

Elizabeth Warren: 'Pentagono si vendica di Anthropic per l'etica sull'AI'

La senatrice statunitense Elizabeth Warren ha acceso un faro sulla controversa decisione del Pentagono di etichettare la startup di intelligenza artificiale Anthropic come "rischio per la catena di approvvigionamento", definendola una chiara "ritorsione". La mossa arriva dopo il rifiuto di Anthropic di cedere sulle proprie linee guida etiche riguardanti l'uso militare dei suoi strumenti AI, in particolare per la sorveglianza di massa e le armi autonome letali senza intervento umano.

Secondo le notizie emerse il 23 marzo 2026, Warren ha inviato una lettera al Segretario alla Difesa Pete Hegseth, sostenendo che il Dipartimento della Difesa avrebbe potuto semplicemente terminare il contratto con Anthropic, anziché applicare un'etichetta di sicurezza solitamente riservata a minacce straniere a un'azienda statunitense. Questa classificazione, infatti, obbliga qualsiasi appaltatore governativo a certificare di non utilizzare i prodotti di Anthropic, di fatto escludendo l'azienda da future partnership federali.

La senatrice ha espresso preoccupazione che il Pentagono stia cercando di "costringere" le aziende americane a fornire strumenti per la sorveglianza e armamenti autonomi senza adeguate salvaguardie. Inoltre, Warren sta indagando su un nuovo contratto tra il Dipartimento della Difesa e OpenAI, temendo che questo accordo non includa le stesse tutele etiche che Anthropic aveva richiesto, potenzialmente mettendo a rischio le libertà civili e la sicurezza dei civili.

Questo episodio solleva importanti questioni sull'etica dell'AI e sul controllo governativo, temi che risuonano anche in Europa. Il dibattito sulla regolamentazione dell'intelligenza artificiale, con normative come il GDPR che già pongono limiti stringenti sull'uso dei dati, mostra una crescente attenzione alla protezione dei cittadini. La vicenda Anthropic evidenzia la tensione tra innovazione tecnologica e responsabilità etica, un equilibrio cruciale per il futuro dell'AI a livello globale.