Il fenomeno dell'AI slop — la valanga di contenuti spazzatura generati artificialmente — ha raggiunto un punto di rottura, colpendo proprio chi l'ha alimentata: i cybercriminali. Secondo un'analisi pubblicata il 5 maggio dall'Alan Turing Institute, i forum del dark web sono ormai così saturi di codice difettoso e post automatizzati da rendere quasi impossibile il coordinamento di attacchi complessi. Il rapporto evidenzia come la maggior parte degli hacker fatichi a integrare l'AI in modo efficace, finendo per inquinare i propri spazi di scambio.
L'impatto pratico è paradossale. Se da un lato l'AI facilita le truffe su larga scala, dall'altro sta distruggendo l'ecosistema sotterraneo. I professionisti del crimine lamentano che lo slop nasconde i veri exploit, costringendoli a filtrare tonnellate di "rumore" inutile. Questo degrado della qualità, confermato anche da recenti report di Wired, sta rallentando l'efficacia dei gruppi organizzati che non riescono più a distinguere un software malevolo funzionante da un'allucinazione dell'AI.
In Europa, questo scenario si intreccia con l'implementazione dell'AI Act. Mentre le aziende italiane ed europee si adeguano a standard di trasparenza rigorosi per evitare la diffusione di contenuti sintetici, il mondo illegale sta implodendo sotto il peso della propria automazione sfrenata. Per i difensori della sicurezza, questa "tragedia dei beni comuni" nel dark web rappresenta un'opportunità: il rumore di fondo generato dall'AI sta diventando una barriera naturale che complica la vita agli attaccanti meno esperti.