Indietro

Anthropic nega di poter manipolare i suoi modelli AI in caso di conflitto: il dibattito su controllo e sicurezza

Anthropic ha respinto le accuse del Dipartimento della Difesa USA, che sosteneva la possibilità per l'azienda di manipolare i propri modelli di intelligenza artificiale, come Claude, durante un conflitto. La compagnia dichiara che tale manipolazione sarebbe impossibile.

Anthropic nega di poter manipolare i suoi modelli AI in caso di conflitto: il dibattito su controllo e sicurezza

Il dibattito sulla sicurezza e il controllo delle intelligenze artificiali più potenti si infiamma. Anthropic, sviluppatore del modello Claude, si è trovata a dover smentire pesanti accuse mosse dal Dipartimento della Difesa degli Stati Uniti. Il 21 marzo 2026, il Pentagono ha sostenuto che Anthropic potrebbe avere la capacità di manipolare i suoi modelli AI nel bel mezzo di un conflitto, sollevando preoccupazioni sulla loro neutralità e affidabilità.

L'azienda ha risposto con fermezza, dichiarando che una tale manipolazione sarebbe tecnicamente impossibile. Questo scontro evidenzia la crescente tensione e la mancanza di fiducia tra gli sviluppatori di IA e le entità governative, soprattutto quando si parla di tecnologie con implicazioni strategiche e geopolitiche.

La questione non è banale: chi controlla l'IA? E quanta fiducia possiamo riporre nelle aziende che le sviluppano, specialmente in contesti critici come la guerra? Comprendere i limiti e le potenzialità di manipolazione dei modelli AI è fondamentale per la nostra sicurezza collettiva e per definire future normative internazionali.