Il dibattito sulla sicurezza e il controllo delle intelligenze artificiali più potenti si infiamma. Anthropic, sviluppatore del modello Claude, si è trovata a dover smentire pesanti accuse mosse dal Dipartimento della Difesa degli Stati Uniti. Il 21 marzo 2026, il Pentagono ha sostenuto che Anthropic potrebbe avere la capacità di manipolare i suoi modelli AI nel bel mezzo di un conflitto, sollevando preoccupazioni sulla loro neutralità e affidabilità.
L'azienda ha risposto con fermezza, dichiarando che una tale manipolazione sarebbe tecnicamente impossibile. Questo scontro evidenzia la crescente tensione e la mancanza di fiducia tra gli sviluppatori di IA e le entità governative, soprattutto quando si parla di tecnologie con implicazioni strategiche e geopolitiche.
La questione non è banale: chi controlla l'IA? E quanta fiducia possiamo riporre nelle aziende che le sviluppano, specialmente in contesti critici come la guerra? Comprendere i limiti e le potenzialità di manipolazione dei modelli AI è fondamentale per la nostra sicurezza collettiva e per definire future normative internazionali.