Wikipedia lascia spazio all'intelligenza artificiale.
L'enciclopedia diffusa e collaborativa più consultata del mondo si affida a un nuovo sistema di machine learning, per separare gli errori e, per coinvolgere maggiormente gli aspiranti editor a garantirsi un futuro, serio e rispettabile.
Gli utenti che contribuiscono alla compilazione della più grande enciclopedia online, modello paradigmatico di realizzazione condivisa, sono infatti in calo.
Almeno nell'edizione in lingua inglese, che negli ultimi otto anni ha perso il 40% degli autori attivi, stabilizzandosi intorno alle 30 mila firme.
Un'élite che sottoscrive il sapere diffuso del pianeta.
Diventare nuovi editor è infatti spesso complicato: di frequente le modifiche apportate non vengono accettate, perché gli strumenti semiautomatici che sovrintendono il processo di accettazione e pubblicazione sono estremamente rigidi e scartano l'intervento appena caricato, anche se contiene errori minimali e trascurabili.
Insomma, sarà pure user friendly per milioni di utenti (è stabilmente fra i primi dieci siti visitati al mondo, ha di fatto ucciso il mercato del sapere tradizionale, anche se pure sotto il profilo delle visite sono arrivati segnali di flessione) ma, vista dal punto d'osservazione di chi vorrebbe contribuire, correggere, aggiungere, specificare le voci, Wikipedia è un bel rompicapo.
Ecco perché la Wikimedia Foundation, l'ente no profit di base a San Francisco che supporta le attività di Wikipedia, le sta tentando tutte.
Una, in particolare, sembra la strada su cui puntare: quella, appunto, dell'intelligenza artificiale.
La soluzione è stata individuata in un software ( Objective Revision Evaluation Service, Ores) che consenta di distinguere gli errori in buona fede, effettuati magari dai nuovi aspiranti collaboratori, dai vandali di contenuti.
Tenendo dentro le modifiche effettuate dai primi, invitandoli magari a rivederle in modo meno drastico di quanto accada ora, e facendo pulizia senza pietà di quanto caricato dai secondi.
Il progetto è stato messo a punto da Aaron Halfaker, un ricercatore che lavora per la fondazione californiana, e punta dunque a non spaventare chi voglia avvicinarsi a un lavoro più attivo sulla piattaforma.
Il sistema utilizza un set di algoritmi open source noti come SciKit Learn per scandagliare le modifiche dannose e separarle dai cambiamenti prodotti dai benintenzionati, anche se contenenti delle imprecisioni. Ottenendo così un duplice risultato: ripulire la più consultata enciclopedia del pianeta dalle numerose imperfezioni e dai rischi di bufale e complete falsità e, d'altra parte, tentare d'invertire il declino degli editor, dando il via a una nuova stagione di collaborazione.
Nessun commento:
Posta un commento