Indietro

Data Poisoning

Il Data Poisoning è un attacco informatico in cui dati manipolati o errati vengono inseriti nel set di addestramento di un'AI per corromperne il comportamento, creare falle di sicurezza o influenzarne le decisioni.


Immagina di voler addestrare un'AI a riconoscere i segnali stradali, ma qualcuno sostituisce segretamente nel tuo database migliaia di foto di segnali di 'Stop' con foto etichettate come 'Via libera'. L'AI imparerà un comportamento pericoloso senza che tu te ne accorga.

È una delle sfide più grandi della cybersicurezza moderna. Poiché le aziende fanno 'scraping' continuo di internet per addestrare i modelli, un malintenzionato potrebbe pubblicare migliaia di articoli falsi per 'avvelenare' il giudizio di una futura AI su un certo brand o su un tema politico.

Proteggere i dataset e verificare la purezza dei dati è diventato vitale quanto proteggere il codice sorgente di un software tradizionale.