AI Safety (Sicurezza dell'AI)
L'AI Safety è il campo di ricerca multidisciplinare che mira a comprendere i rischi posti dallo sviluppo rapido dell'intelligenza artificiale e a sviluppare strategie tecniche e politiche per mitigarli, inclusi i rischi esistenziali.
L'AI Safety non si occupa di far funzionare i filtri antispam, ma si occupa di salvare il mondo. Nel 2023, i più grandi scienziati del pianeta (tra cui i fondatori di DeepMind e OpenAI) hanno firmato una lettera dichiarando che mitigare il rischio di estinzione causato dall'AI dovrebbe essere una priorità globale al pari delle pandemie e delle guerre nucleari. Governi come UK e USA hanno fondato gli 'AI Safety Institute' statali: enti formati da super-hacker incaricati di analizzare obbligatoriamente i nuovi modelli AI prima che vengano rilasciati sul mercato, testando se sono in grado di progettare armi o eseguire attacchi cybernetici autonomi.