Secondo quanto riferito, Instagram ha distribuito video sulla sessualizzazione dei bambini ai follower di influencer adolescenti

Di Alessio Perini 3 minuti di lettura
secondo-quanto-riferito,-instagram-ha-distribuito-video-sulla-sessualizzazione-dei-bambini-ai-follower-di-influencer-adolescenti
Secondo quanto riferito, Instagram ha distribuito video sulla sessualizzazione dei bambini ai follower di influencer adolescenti

Seguendo X presunta controversia pubblicitaria coinvolgendo contenuto antisemita, ora è il turno di Meta di essere messo sotto i riflettori per il suo algoritmo di contenuto. Secondo un esperimento condotto da Il giornale di Wall Street, il servizio video Reels di Instagram fornirebbe “filmati audaci di bambini e video per adulti apertamente sessuali” per testare account che seguivano esclusivamente influencer adolescenti e preadolescenti, vale a dire giovani ginnaste e cheerleader. Questo tipo di pubblicità avrebbe dovuto essere vietata sulle piattaforme di Meta.

A peggiorare le cose, tali contenuti osceni erano anche mescolati con annunci pubblicitari che rappresentavano importanti marchi statunitensi come Disney, Walmart, Pizza Hut, Bumble, Match Group e persino Il giornale di Wall Street si. Il rapporto aggiunge che il Centro canadese per la protezione dell’infanzia ha ottenuto risultati simili con i propri test separatamente.

Mentre Walmart e Pizza Hut apparentemente hanno rifiutato di commentare, Bumble, Match Group, Hims (rivenditore di farmaci per la disfunzione erettile) e Disney da allora hanno ritirato i loro annunci da Meta o hanno fatto pressione sull’azienda per affrontare questo problema. Considerata la precedente controversia su X, gli inserzionisti sono ovviamente ancora più sensibili riguardo al tipo di contenuti mostrati accanto alle loro pubblicità, soprattutto per Disney che è stata colpita sia da X che ora da Instagram.

In risposta, Meta ha detto ai suoi clienti che stava indagando e che “avrebbe pagato i servizi di controllo della sicurezza del marchio per determinare la frequenza con cui gli annunci di un’azienda appaiono accanto a contenuti che considera inaccettabili”. Tuttavia, l’azienda non ha fornito né un calendario né dettagli sulla prevenzione futura.

Anche se si potrebbe dire che tali test non rappresentano necessariamente un’esperienza utente reale (come le aziende tecnologiche tendono a sostenere), la tendenza di Instagram ad aggregare contenuti sulla sessualizzazione infantile era un problema noto internamente, anche prima del lancio di Reels, secondo attuali e precedenti Dipendenti di Meta intervistati dal WSJ.

Lo stesso gruppo di persone ha suggerito che una soluzione efficace richiederebbe il rinnovamento degli algoritmi responsabili della distribuzione dei contenuti correlati agli utenti. Detto questo, i documenti interni visti dal WSJ ha suggerito che Meta ha reso difficile per il suo team di sicurezza applicare cambiamenti così drastici, poiché le prestazioni del traffico sono apparentemente più importanti per il gigante dei social media.

Condividi questo articolo
Exit mobile version