Indietro

5 modelli AI hanno provato a truffarmi: l'allarme phishing del 2026

Nuovi test di Wired e dati Cisco Talos rivelano come l'AI di ultima generazione stia rendendo il phishing indistinguibile dalla realtà.

5 modelli AI hanno provato a truffarmi: l'allarme phishing del 2026

Nelle ultime 48 ore, un'inchiesta di Wired ha scosso il settore della cybersecurity: cinque dei modelli AI più avanzati sul mercato sono stati in grado di generare truffe "spaventosamente efficaci". I test dimostrano che i nuovi sistemi non si limitano a scrivere email, ma orchestrano attacchi di ingegneria sociale iper-personalizzati, capaci di superare i filtri di sicurezza che fino a pochi mesi fa sembravano invalicabili.

Contemporaneamente, un rapporto di Cisco Talos pubblicato il 22 aprile conferma che il phishing è tornato a essere il primo vettore di attacco nel 2026, alimentato da strumenti che permettono di creare pagine di login fraudolente senza scrivere una riga di codice. In Europa, questo scenario mette a dura prova la tenuta dell'AI Act: mentre i regolamenti cercano di imporre standard di sicurezza ai fornitori, i criminali sfruttano modelli manipolati per eludere i controlli del GDPR e sottrarre dati sensibili.

L'impatto pratico per le aziende è una necessaria transizione verso la breach resilience. Non basta più istruire i dipendenti a cercare errori grammaticali; oggi la difesa si sposta sulla verifica "out-of-band" e sull'uso di MFA (autenticazione a più fattori) basata su hardware. La fiducia digitale è ai minimi storici: ogni comunicazione, anche se stilisticamente perfetta, deve essere validata attraverso canali secondari sicuri.