Indietro

Explainable AI (XAI)

L'Explainable AI è una branca della ricerca che sviluppa metodi per permettere agli esseri umani di comprendere come e perché un modello di apprendimento automatico è arrivato a una specifica decisione.


Il più grande difetto del Deep Learning è l'effetto Scatola Nera: i dati entrano, la risposta esce, ma nessuno sa esattamente cosa sia successo in mezzo. L'Explainable AI cerca di accendere la luce in questa scatola. È un requisito fondamentale per usare l'intelligenza artificiale in settori critici: se un'AI nega un mutuo a una famiglia o diagnostica una malattia, la legge e l'etica impongono che il software sappia spiegare passo dopo passo il ragionamento logico che lo ha portato a quella conclusione.