Black Box (Scatola Nera)
Il termine Black Box si riferisce a un sistema di intelligenza artificiale di cui conosciamo l'input fornito e l'output generato, ma il cui processo decisionale interno è talmente complesso da risultare incomprensibile all'uomo.
Nelle reti neurali profonde con miliardi di parametri, la matematica diventa un groviglio inestricabile. Quando ChatGPT ti scrive una poesia, i creatori di OpenAI non possono guardare il codice e dirti esattamente quale 'neurone' ha scelto la rima finale. La macchina funziona perfettamente, ma la logica del suo funzionamento ci è preclusa. Questo concetto di scatola nera è il motivo per cui l'Unione Europea ha introdotto leggi severe: un'AI che decide il destino legale, medico o finanziario di una persona non può essere inesplicabile.