Anthropic ha annunciato una limitazione strategica nel rilascio del suo ultimo e più potente modello di intelligenza artificiale, Mythos. L'azienda giustifica questa mossa con la straordinaria capacità di Mythos di identificare vulnerabilità critiche nel software globale, un potere che, se rilasciato indiscriminatamente, potrebbe rappresentare un rischio significativo per la sicurezza informatica. L'accesso sarà inizialmente concesso solo a un gruppo selezionato di grandi imprese e organizzazioni che gestiscono infrastrutture digitali cruciali, come Amazon Web Services e JPMorgan Chase.
Questa decisione, sebbene presentata come una misura di sicurezza, solleva interrogativi sulle reali motivazioni di Anthropic. Esperti del settore, come David Crawshaw di exe.dev, suggeriscono che la restrizione potrebbe anche servire a proteggere la dominanza commerciale di Anthropic. Limitare l'accesso ai modelli più avanzati renderebbe più difficile per i concorrenti utilizzare tecniche di "distillazione" – ovvero l'uso di modelli potenti per addestrare versioni più piccole ed economiche – mantenendo così il mercato focalizzato su contratti ad alto valore con grandi aziende.
In Europa, la notizia è stata accolta con un certo favore. L'Unione Europea ha infatti espresso apprezzamento per la scelta di Anthropic di rallentare il rilascio di uno strumento AI così potente, evidenziando la crescente preoccupazione per la sicurezza e l'etica nell'implementazione dell'intelligenza artificiale. Questa posizione si allinea con gli sforzi regolatori europei, come il futuro AI Act, volti a garantire uno sviluppo responsabile dell'IA. La questione rimane aperta: la mossa di Anthropic è un atto di altruismo per la protezione del web o una mossa astuta per salvaguardare la propria posizione nel mercato dell'IA?