OpenAI ha lanciato ufficialmente Trusted Contact, una nuova funzione di sicurezza per ChatGPT progettata per intervenire tempestivamente in caso di segnali di autolesionismo. Lo strumento, disponibile per gli utenti maggiorenni, permette di indicare un contatto di fiducia che verrà allertato qualora i sistemi di monitoraggio automatizzati e un team di revisori umani identifichino segnali di crisi imminente durante una conversazione.
L'impatto pratico segna una transizione verso una sicurezza proattiva: l'IA non si limita più a fornire numeri di emergenza standard, ma cerca di creare un ponte con la rete di supporto reale dell'utente. Una volta attivata l'opzione nelle impostazioni, il contatto scelto riceverà una notifica via SMS o email, ma senza l'invio dei trascritti delle chat, garantendo così un equilibrio tra intervento salvavita e riservatezza dei dati personali.
In Europa, l'implementazione dovrà navigare tra le maglie del GDPR e del nuovo AI Act, poiché il trattamento di dati relativi alla salute mentale è considerato ad alto rischio. OpenAI ha strutturato la funzione come strettamente opt-in, richiedendo il consenso esplicito sia dell'utente che del contatto designato. Questo approccio mira a prevenire potenziali blocchi normativi, garantendo che la gestione delle emergenze avvenga nel pieno rispetto della sovranità digitale e della protezione dei dati sensibili dei cittadini europei.