Allucinazione AI
Un'Allucinazione nell'Intelligenza Artificiale si verifica quando un modello generativo produce informazioni false, inventate o illogiche, presentandole con un tono estremamente sicuro e autorevole.
Il termine allucinazione spaventa, ma tecnicamente è solo l'AI che fa esattamente ciò per cui è programmata: prevedere la parola successiva più probabile. Non avendo una coscienza o un database di fatti certi (a meno che non usi il RAG), cerca solo di completare la frase in modo che suoni grammaticalmente perfetta.
Se gli chiedi la biografia di una persona che non esiste, è molto probabile che l'AI inventi date di nascita, lauree finte e premi inesistenti, assemblando pezzi di altre biografie in modo coerente e credibile.
È il rischio numero uno nell'uso professionale dell'AI. La regola d'oro è che l'output di un LLM deve essere considerato come una bozza eccellente scritta da un creativo talentuoso, che richiede sempre la revisione critica e fattuale di un esperto umano.