La senatrice del Massachusetts Elizabeth Warren è l’ultima figura pubblica domandare come Meta modera i contenuti durante la guerra tra Israele e Hamas. In una lettera indirizzata a Mark Zuckerberg, Warren solleva diverse questioni segnalate dagli utenti di Instagram dal 7 ottobre e sollecita Meta per ulteriori informazioni sulle sue politiche sottostanti e sulla quantità di contenuti che l’azienda ha rimosso relativi al conflitto.
Nel lettera, Warren cita resoconti dei media e di gruppi per i diritti umani sulle incoerenze nelle pratiche di moderazione dell’azienda dall’inizio della guerra. In particolare rileva che numerosi utenti di Instagram hanno accusato l’azienda di “shadowbanning” per aver postato informazioni sulle condizioni a Gaza. Fa anche riferimento a un audit di terze parti, commissionato da Meta e pubblicato lo scorso anno, che ha rilevato che l’azienda violato i palestinesi diritto alla libera espressione nel 2021, l’ultima volta che si è verificata una grande escalation di violenza nella Striscia di Gaza.
“I rapporti sulla soppressione delle voci palestinesi da parte di Meta sollevano seri interrogativi sulle pratiche di moderazione dei contenuti di Meta e sulle protezioni antidiscriminatorie”, scrive Warren. “Gli utenti dei social media meritano di sapere quando e perché i loro account e post sono limitati, in particolare sulle piattaforme più grandi dove avviene la condivisione di informazioni vitali”.
La lettera chiede informazioni dettagliate su come Meta sta applicando le sue politiche nel contesto della guerra. Ad esempio, chiede a Meta di rivelare statistiche sul numero di post che sono stati rimossi dal 7 ottobre e su quante di queste rimozioni sono state presentate in appello. Chiede anche a Meta di farlo spiegare i rapporti che la società ha nascosto numerosi commenti su Instagram con bandiere palestinesi perché “potenzialmente offensivi”.
La lettera dà a Zuckerberg una scadenza, il 5 gennaio, per rispondere alle domande. Meta non ha risposto a una richiesta di commento.
Meta è stata oggetto di un crescente controllo per le sue pratiche di moderazione dal 7 ottobre. La società ha pubblicamente attribuito diversi problemi a problemi tecnici e bug non specificati, ma ha anche riconosciuto di aver preso temporanee misure di emergenza per rallentare la diffusione di contenuti potenzialmente dannosi.
Lo è anche il comitato di vigilanza indipendente di Meta tracciamento rapido due casi legati al contenuto della guerra tra Israele e Hamas, la prima volta che il gruppo ha deciso di accelerare il suo consueto processo che dura mesi. Il consiglio ha affermato di aver assistito a un aumento degli appelli da parte degli utenti di Facebook e Instagram dall’inizio del conflitto.