Indietro

Bias Algoritmico

Il Bias Algoritmico è un errore sistematico che si verifica quando un'intelligenza artificiale produce risultati distorti o discriminatori. Questo avviene solitamente perché i dati usati per addestrarla riflettevano pregiudizi storici, sociali o umani.


L'Intelligenza Artificiale è uno specchio della società che l'ha addestrata. Se i dati del passato contengono ingiustizie, l'AI, essendo un algoritmo matematico, ottimizzerà e replicherà quell'ingiustizia su scala industriale.

Un esempio celebre fu un'AI per la selezione del personale che scartava i curriculum delle donne. Perché lo faceva? Perché era stata addestrata sui dati dei dipendenti assunti negli ultimi 10 anni, che per motivi storici erano quasi tutti uomini. L'AI ha semplicemente dedotto che 'essere uomo' fosse un requisito di successo matematico.

Militare attivamente contro il Bias è fondamentale per chi sviluppa AI in settori critici come prestiti bancari, sanità e giustizia penale, dove una decisione algoritmica discriminatoria può rovinare vite umane.