La ricerca sul Web è peggiorata sempre di più negli ultimi anni e, più recentemente, gli articoli di spam generati dall’intelligenza artificiale hanno contribuito a questo problema. Google sta ora tentando di risolvere questo problema, con un aggiornamento lanciato su Ricerca Google che mira a ridurre i risultati di “bassa qualità”.
La diffusa capacità degli strumenti di intelligenza artificiale generativa ha consentito ai siti di pubblicare centinaia o migliaia di articoli al giorno, inondando i risultati di ricerca web per argomenti popolari. Ormai è abbastanza comune imbattersi in articoli scritti (almeno in parte) dall’intelligenza artificiale nei risultati di ricerca, molti dei quali hanno errori di fatto e una supervisione minima da parte di uno scrittore umano. Google ha detto in precedenza che consente contenuti generati dall’intelligenza artificiale nei risultati di ricerca, ma tutti gli articoli sono tenuti agli stessi standard di qualità e il contenuto spam verrebbe rifiutato. Tuttavia, la Ricerca Google è ancora piena di spam generato dall’intelligenza artificiale.
Il post di Google a riguardo
Gli algoritmi di Ricerca Google sono stati ora aggiornati per ridurre i risultati di bassa qualità e non originali. La società ha affermato in un post sul blog: “Oggi i metodi di creazione di contenuti su scala sono più sofisticati e se il contenuto venga creato esclusivamente attraverso l’automazione non è sempre così chiaro. Per affrontare meglio queste tecniche, stiamo rafforzando la nostra politica per concentrarci su questo comportamento abusivo, producendo contenuti su larga scala per migliorare il posizionamento nei risultati di ricerca, indipendentemente dal fatto che siano coinvolti l’automazione, gli esseri umani o una combinazione di essi. Ciò ci consentirà di agire su più tipi di contenuti con poco o nessun valore creato su larga scala, come le pagine che fingono di avere risposte alle ricerche più frequenti ma non riescono a fornire contenuti utili”.
I cambiamenti avranno un effetto sufficiente?
I siti Web di spam potrebbero semplicemente ridurre il loro output per impedirne il rilevamento oppure potrebbero provare altre soluzioni alternative. Inoltre, questo non affronta direttamente i contenuti generati dall’intelligenza artificiale con errori fattuali o semplicemente informazioni generalmente inutili, che sono più difficili da rilevare automaticamente e Google non sembra intraprendere azioni manuali abbastanza spesso. I test condotti dall’azienda riportano una riduzione del 40% dei contenuti di bassa qualità.
Il problema della reputazione di alcuni siti
Google sta anche tentando di intervenire contro l'”abuso della reputazione del sito”, laddove i siti pubblicano contenuti di terze parti che sono molto diversi dai loro contenuti tipici, in modo che la terza parte possa trarre vantaggio dalla reputazione esistente di quel sito e dal posizionamento nella ricerca web. Google ha dichiarato: “Ad esempio, una terza parte potrebbe pubblicare recensioni di prestiti con anticipo sullo stipendio su un sito Web educativo affidabile per ottenere vantaggi in termini di posizionamento dal sito. Tali contenuti posizionati in alto nella ricerca possono confondere o fuorviare i visitatori che potrebbero avere aspettative molto diverse per il contenuto di un determinato sito web”. L’azienda ora considera come spam anche i domini scaduti e riproposti che pubblicano contenuti di bassa qualità.
Il miglioramento del rilevamento dello spam viene implementato come parte dell’aggiornamento principale di Google di marzo 2024 per la Ricerca. Il passaggio all’abuso della reputazione del sito entrerà in vigore il 5 maggio 2024.