La chiusura dell'app Sora di OpenAI, annunciata il 24 marzo 2026, segna un punto di svolta nelle discussioni sul lato oscuro dei video generati dall'intelligenza artificiale. L'applicazione, che aveva permesso la creazione di video virali, è stata ritirata a causa delle crescenti preoccupazioni legate a immagini non consensuali e deepfake realistici, oltre a un generale dilagare di contenuti AI di bassa qualità, definiti "AI slop". Questo sviluppo sottolinea come la facilità di creare contenuti sintetici, anche apparentemente innocui come i "video di frutta" virali, possa mascherare rischi etici profondi, dall'uso improprio dei dati alla manipolazione della realtà.
L'impatto pratico di questa tecnologia è sempre più evidente. Recenti notizie delle ultime 48 ore evidenziano l'escalation dei deepfake nella disinformazione politica, con incidenti registrati in Irlanda e Paesi Bassi che hanno visto la diffusione di contenuti falsi per influenzare le elezioni. Il World Economic Forum ha classificato la disinformazione e la misinformazione tra i principali rischi globali a breve termine per il 2026. Parallelamente, un caso in Pennsylvania ha visto due adolescenti ricevere la libertà vigilata per aver utilizzato l'AI per creare immagini nude false di compagne di classe, dimostrando il danno reale e traumatico di tali abusi.
In Europa, la risposta normativa si sta intensificando. Il Parlamento Europeo è impegnato nella votazione di emendamenti al EU AI Act, con l'obiettivo di vietare pratiche AI che generano contenuti sessuali non consensuali e di rafforzare le norme sulla protezione dei dati personali sensibili. Le disposizioni sulla trasparenza per i contenuti generati dall'AI, previste dall'Articolo 50 dell'AI Act, diventeranno applicabili dal 2 agosto 2026, imponendo ai fornitori di rendere identificabile il contenuto AI. Questa convergenza di eventi sottolinea l'urgenza di affrontare le sfide etiche poste dall'AI per salvaguardare la fiducia e l'integrità della società digitale.