Non puoi fidarti di tutto su a Pagina Wikipedia, per questo motivo è importante fare riferimento alle fonti originali citate in nota. Ma a volte, anche le fonti primarie possono farlo portarti fuori strada. I ricercatori hanno sviluppato un’intelligenza artificiale focalizzata su migliorando l’affidabilità dei riferimenti di Wikipedia addestrando gli algoritmi a identificare le citazioni discutibili sul sito.
Il programma, chiamato SIDE, fa due cose: controlla se una fonte primaria è accurata e ne suggerisce di nuove. Tuttavia, l’intelligenza artificiale opera partendo dal presupposto che un’affermazione di Wikipedia sia vera. Ciò significa che, sebbene possa verificare la validità di una fonte, non può effettivamente verificare le affermazioni fatte in una voce.
In un studio, le persone preferivano le citazioni suggerite dall’intelligenza artificiale all’originale il 70% delle volte. I ricercatori hanno scoperto che in quasi la metà dei casi il SIDE presentava una fonte già utilizzata da Wikipedia come riferimento principale. E nel 21% dei casi, il SIDE è stato un passo avanti quando ha sfornato una raccomandazione che era già stata ritenuta appropriata dagli annotatori umani nello studio.
Mentre l’intelligenza artificiale sembra dimostrare di poter aiutare efficacemente un editore a verificare le affermazioni di Wikipedia, i ricercatori ammettono che programmi alternativi potrebbero superare il loro attuale design sia in termini di qualità che di velocità. SIDE ha capacità limitate, ovvero il programma considera solo i riferimenti corrispondenti alle pagine web. In realtà Wikipedia cita libri, articoli scientifici e informazioni presentate attraverso altri media oltre al testo come immagini e video. Ma al di là dei suoi limiti tecnici, la premessa di Wikipedia è che qualsiasi scrittore ovunque possa assegnare un riferimento a un argomento. I ricercatori suggeriscono che l’uso stesso di Wikipedia potrebbe limitare lo studio. Alludono al fatto che le persone che inseriscono citazioni nel sito Web potrebbero permeare pregiudizi a seconda della natura degli argomenti in questione.
Nel frattempo, sappiamo tutti che qualsiasi programma, in particolare un’intelligenza artificiale che dipende dall’addestramento, potrebbe essere soggetto all’esposizione di pregiudizi del suo programmatore. I dati utilizzati per addestrare e valutare i modelli SIDE potrebbero essere limitati a questo riguardo. Tuttavia, i vantaggi derivanti dall’utilizzo dell’intelligenza artificiale per semplificare il controllo dei fatti, o almeno utilizzarlo come strumento di supporto, potrebbero avere applicazioni che si ripercuotono altrove. Wikipedia e anche le società di social media devono fare i conti con malintenzionati e robot che inondano le piazze digitali di informazioni false. Ciò è particolarmente vero e importante ora più che mai, sulla scia della disinformazione che si diffonde in tutto il mondo Guerra Israele-Hamas e il prossime elezioni presidenziali negli Stati Uniti. La necessità di mitigare la disinformazione online potrebbe essere catalizzata con strumenti di intelligenza artificiale, come SIDE, progettati proprio per questo scopo. Ma ci sono ancora alcuni progressi che devono essere fatti prima che ciò possa avvenire.