Un nuovo allarme scuote il settore tech: migliaia di applicazioni create tramite vibe-coding — ovvero generate da intelligenze artificiali su semplice comando testuale — stanno esponendo dati critici sul web. Secondo un'indagine della società di sicurezza RedAccess rilanciata da Wired, la facilità con cui dipendenti non tecnici creano strumenti interni ha portato alla pubblicazione involontaria di circa 380.000 asset pubblici, di cui oltre 5.000 contenenti informazioni ipersensibili come cartelle cliniche, dati bancari e conversazioni private.
Il problema risiede nella natura stessa di queste piattaforme, come Replit, Lovable e Netlify, che spesso impostano la visibilità dei progetti su "pubblico" di default. Senza competenze di sicurezza, gli utenti caricano database di clienti e segreti industriali senza alcuna protezione. Per le imprese che operano in Europa, questo scenario rappresenta un incubo per la compliance GDPR: la dispersione di dati personali senza crittografia o controllo d'accesso espone le organizzazioni a sanzioni pesantissime e alla perdita di fiducia del mercato.
L'impatto pratico è una nuova, pericolosa forma di Shadow AI. Per mitigare il rischio, le aziende devono censire immediatamente ogni tool generato con l'IA e implementare protocolli di Zero Trust. Non basta che l'app "funzioni": ogni riga di codice generata deve passare un controllo di sicurezza formale prima di gestire dati reali.