Un recente test condotto da WIRED aveva già messo in luce le significative lacune di ChatGPT nel fornire raccomandazioni accurate, dimostrando come le sue risposte su prodotti e servizi fossero spesso errate o inventate. Questo problema di affidabilità continua a essere un tema centrale nel dibattito sull'intelligenza artificiale.
A riprova di ciò, una guida italiana pubblicata il 1° aprile 2026 da Switcho ha nuovamente evidenziato la minore affidabilità di ChatGPT nelle risposte rispetto ad altri modelli, introducendo il concetto di "hallucination rate" per misurare la frequenza con cui un'AI inventa informazioni presentandole come vere. Il report sconsiglia vivamente l'uso dell'AI per decisioni critiche come diagnosi mediche o consigli finanziari, sottolineando la necessità di verifica umana.
Questo scenario ha un impatto diretto sugli utenti in Italia e in Europa, dove la fiducia nelle informazioni digitali è già sotto esame. La crescente dipendenza da strumenti AI per consigli pratici, come la scelta di prodotti, rende fondamentale una maggiore consapevolezza sui loro limiti. La regolamentazione europea, come il futuro AI Act, mira proprio a garantire maggiore trasparenza e sicurezza, ma la responsabilità finale della verifica ricade sempre sull'utente.
È chiaro che, sebbene l'AI generativa offra strumenti potenti, la sua capacità di generare raccomandazioni specifiche e veritiere rimane un punto critico. L'invito è a un uso informato e critico, considerando l'AI come un punto di partenza per la ricerca, non come una fonte definitiva di verità.