Indietro

Chatbot AI: allarme per la diffusione di numeri di telefono reali

Una falla nei modelli linguistici espone i dati privati degli utenti. Scopri i rischi e come la normativa europea sta reagendo al leak.

Chatbot AI: allarme per la diffusione di numeri di telefono reali

Un'inchiesta del MIT Technology Review pubblicata il 13 maggio 2026 ha sollevato un allarme critico per la sicurezza digitale: i principali chatbot AI stanno diffondendo numeri di telefono reali di privati cittadini. Il fenomeno, ribattezzato AI doxxing, si verifica quando i modelli richiamano informazioni personali (PII) presenti nei dataset di addestramento, fornendole come risposte a ignari utenti o usandole erroneamente come contatti per servizi professionali.

L'impatto pratico è immediato e invasivo. Diversi utenti hanno segnalato di essere stati sommersi da chiamate di sconosciuti che cercavano avvocati o fabbri, dopo che l'intelligenza artificiale aveva associato i loro numeri privati a tali professioni. Questo espone le vittime a rischi concreti di phishing, stalking e violazioni della sicurezza personale, rendendo la privacy un concetto sempre più fragile nell'era dell'IA generativa.

In Europa, questa falla rappresenta una violazione diretta del GDPR. Il Garante per la protezione dei dati personali e le altre autorità europee monitorano con estrema attenzione la capacità delle aziende di garantire il diritto all'oblio. Se i fornitori di IA non riusciranno a filtrare efficacemente questi dati sensibili dai propri modelli, il rischio di nuovi blocchi regionali o sanzioni miliardarie diventerà inevitabile per proteggere i cittadini. Per tutelarsi, è consigliabile verificare periodicamente se i propri dati compaiono nelle risposte dei chatbot e inviare richieste formali di rimozione ai gestori delle piattaforme.