L'allarme lanciato da un avvocato specializzato in casi legati all'AI è serio e non può essere ignorato. Da anni, i chatbot intelligenti sono stati collegati a situazioni di autolesionismo e suicidio. Ora, la preoccupazione si spinge oltre: l'avvocato sostiene che questi sistemi stiano iniziando a emergere in casi di 'mass casualty', ovvero incidenti con molte vittime.
Il cuore del problema risiede nella velocità con cui la tecnologia AI si sviluppa, superando di gran lunga la capacità di creare salvaguardie adeguate. I rischi vanno dalla manipolazione psicologica all'incitamento involontario, con conseguenze devastanti sulla salute mentale e sul comportamento degli utenti, soprattutto quelli più vulnerabili.
Per tutti noi, e per i decisori, questo è un campanello d'allarme fortissimo: l'etica e la sicurezza devono essere integrate nel design e nello sviluppo dell'AI fin dal primo giorno, non come un ripensamento. La posta in gioco non è solo la reputazione delle aziende, ma la vita e la sicurezza delle persone. È essenziale che la ricerca e l'implementazione dell'AI siano affiancate da un robusto quadro normativo e di responsabilità.