Indietro

Anthropic vince ingiunzione: stop al veto del Pentagono sull'AI

Un giudice federale ha sospeso il divieto dell'amministrazione Trump su Anthropic, impedendo al Pentagono di etichettare l'azienda come "rischio per la supply chain" per le sue politiche etiche sull'AI.

Anthropic vince ingiunzione: stop al veto del Pentagono sull'AI

Un giudice federale ha dato ragione ad Anthropic nella sua battaglia legale contro l'amministrazione Trump, concedendo un'ingiunzione che blocca l'ordine del governo di etichettare l'azienda come "rischio per la supply chain". La decisione, emessa giovedì 26 marzo 2026 dalla giudice Rita F. Lin della California, sospende temporaneamente le misure punitive del Dipartimento della Difesa e l'ordine di cessare l'uso della tecnologia di Anthropic da parte delle agenzie federali.

Il fulcro della disputa risiede nel rifiuto di Anthropic di consentire l'uso del suo modello di intelligenza artificiale, Claude, per armi autonome letali o sorveglianza di massa. La giudice Lin ha sostenuto che gli ordini del governo hanno probabilmente violato le protezioni della libertà di parola dell'azienda e sono stati "arbitrari e capricciosi". Questa ingiunzione rappresenta una vittoria significativa per Anthropic, consentendole di continuare a operare con i suoi partner e clienti mentre il caso procede.

L'impatto pratico di questa sentenza è immediato: le agenzie federali possono continuare a utilizzare la tecnologia di Anthropic, preservando lo status quo e evitando interruzioni operative. La decisione sottolinea l'importanza crescente delle questioni etiche nell'ambito dell'intelligenza artificiale e il ruolo che le aziende tecnologiche possono giocare nel definire i limiti del suo utilizzo. In Europa, dove il dibattito sull'etica dell'AI e la sovranità digitale è particolarmente acceso, la posizione di Anthropic è stata osservata con interesse, con alcuni che hanno suggerito un allineamento con i valori regolatori del continente.