Indietro

Deepfake nudes: la crisi nelle scuole è peggiore del previsto

Nuovi dati rivelano una diffusione capillare di immagini AI non consensuali nelle scuole. Ecco come le nuove norme UE tentano di arginare il fenomeno.

Deepfake nudes: la crisi nelle scuole è peggiore del previsto

L'ultima indagine di Wired, pubblicata il 15 aprile 2026, squarcia il velo su una realtà drammatica: la crisi dei deepfake nudes nelle scuole è molto più estesa di quanto immaginato, con oltre 90 istituti coinvolti a livello globale e centinaia di vittime minorenni. Il fenomeno non è più limitato a casi isolati, ma è alimentato da app di nudificazione accessibili a chiunque tramite bot di messaggistica, capaci di trasformare una semplice foto del volto in materiale esplicito in pochi secondi.

L'impatto pratico è immediato e devastante. Recenti procedimenti legali confermano che i responsabili — spesso compagni di classe — rischiano ora la libertà vigilata e l'iscrizione nei registri dei reati sessuali, poiché queste immagini sono classificate come pedopornografia sintetica. In Europa, la risposta normativa si è fatta stringente: il Parlamento Europeo ha recentemente votato per il bando totale dei software che generano contenuti sessuali non consensuali, mentre il Garante della Privacy in Italia ha intensificato i provvedimenti di blocco contro le piattaforme estere, richiamando il rispetto rigoroso del GDPR per la tutela dei dati biometrici dei minori.

Per le famiglie e i dirigenti scolastici, la notizia segna un punto di svolta nella gestione del bullismo digitale. Le nuove linee guida europee impongono ai fornitori di servizi digitali di implementare filtri preventivi e offrono alle vittime strumenti legali per ottenere la rimozione dei contenuti entro 48 ore, riducendo drasticamente il rischio di una viralità incontrollata.