Explainable AI (XAI)
L'Explainable AI è una branca della ricerca che sviluppa metodi per permettere agli esseri umani di comprendere come e perché un modello di apprendimento automatico è arrivato a una specifica decisione.
Il più grande difetto del Deep Learning è l'effetto Scatola Nera: i dati entrano, la risposta esce, ma nessuno sa esattamente cosa sia successo in mezzo. L'Explainable AI cerca di accendere la luce in questa scatola. È un requisito fondamentale per usare l'intelligenza artificiale in settori critici: se un'AI nega un mutuo a una famiglia o diagnostica una malattia, la legge e l'etica impongono che il software sappia spiegare passo dopo passo il ragionamento logico che lo ha portato a quella conclusione.