Overfitting (Sovradattamento)
L'Overfitting si verifica quando un modello AI impara 'troppo bene' i dati di addestramento, memorizzando anche il rumore e i dettagli inutili, perdendo la capacità di generalizzare su nuovi dati mai visti prima.
Immagina uno studente che impara a memoria tutte le risposte del libro di testo ma non capisce la materia. Se all'esame le domande cambiano anche solo di una virgola, lo studente fallisce miseramente. Questa è l'AI in Overfitting.
Il modello diventa perfetto sui dati che ha già visto, ma appena gli chiedi qualcosa di nuovo, dà risposte sbagliate perché cerca schemi che esistevano solo nel suo piccolo set di addestramento.
Gli ingegneri combattono l'overfitting interrompendo l'addestramento al momento giusto o introducendo un po' di 'disturbo' per costringere l'AI a capire i concetti generali anziché limitarsi a fotocopiare la memoria.