Wikipedia ha annunciato una stretta significativa sull'utilizzo dell'intelligenza artificiale generativa per la creazione e la riscrittura di articoli. La nuova politica, entrata in vigore per la versione inglese dell'enciclopedia, mira a salvaguardare l'accuratezza e l'affidabilità dei contenuti, valori fondamentali per la piattaforma.
La decisione arriva in risposta alla crescente preoccupazione che i testi generati da modelli linguistici di grandi dimensioni (LLM) possano violare le politiche di contenuto di Wikipedia, introducendo errori o informazioni non verificate. I contributori non potranno più affidarsi all'AI per produrre intere sezioni o articoli da zero. Tuttavia, sono previste due eccezioni pratiche: gli editor possono usare gli LLM per perfezionare la propria scrittura, come strumenti di correzione grammaticale o stilistica, a patto di rivedere attentamente ogni modifica per garantirne l'accuratezza. L'AI è ammessa anche per le traduzioni iniziali di articoli, ma con l'obbligo per l'editor umano di verificare la correttezza e la fluidità in entrambe le lingue.
Questa mossa sottolinea l'impegno di Wikipedia verso l'integrità editoriale in un'era dominata dall'AI. Va notato che, mentre la versione inglese ha aggiornato le sue linee guida, la situazione per la Wikipedia in italiano è attualmente differente, con l'ultimo aggiornamento delle direttive equivalenti risalente al 7 marzo. La sfida maggiore resta l'applicazione di queste regole, dato che rilevare i testi generati dall'AI è ancora complesso e gli stili di scrittura umani possono talvolta assomigliare a quelli delle macchine.