X ha confermato che impedirà agli utenti di cercare il nome di Taylor Swift dopo che i deepfake pornografici dell’artista hanno iniziato a circolare sulla piattaforma questa settimana. I visitatori del sito hanno iniziato a notare sabato che alcune ricerche contenenti il nome di Swift restituivano solo un messaggio di errore. In una dichiarazione al giornale di Wall Street sabato sera, Joe Benarroch, responsabile delle operazioni aziendali di X, ha dichiarato: “Questa è un’azione temporanea e viene eseguita con molta cautela poiché diamo priorità alla sicurezza su questo problema”. Questo passaggio avviene giorni dopo che il problema è diventato noto per la prima volta.
La gestione della questione da parte di X fin dall’inizio ha attirato critiche sulla lentezza nel frenare la diffusione di immagini non consensuali e sessualmente esplicite. Dopo che le immagini sono diventate virali mercoledì, i fan di Swift hanno preso in mano la situazione per limitare la loro visibilità e farle rimuovere, segnalando in massa gli account che condividevano le immagini e inondando gli hashtag relativi al cantante con contenuti positivi, Notizie della NBC segnalato all’inizio di questa settimana. Molti degli account offensivi furono successivamente sospesi, ma non prima di essere stati visti in alcuni casi milioni di volte. Il limite ha riferito giovedì che un post è stato visualizzato più di 45 milioni di volte.
In una dichiarazione pubblicata sulla sua piattaforma più tardi quel giorno, X ha affermato: “Pubblicare immagini di nudità non consensuale (NCN) è severamente vietato su X e abbiamo una politica di tolleranza zero nei confronti di tali contenuti. I nostri team stanno rimuovendo attivamente tutte le immagini identificate e adottando le azioni appropriate contro gli account responsabili della loro pubblicazione. Stiamo monitorando attentamente la situazione per garantire che eventuali ulteriori violazioni vengano immediatamente affrontate e che i contenuti vengano rimossi. Ci impegniamo a mantenere un ambiente sicuro e rispettoso per tutti gli utenti”.
Ma era ancora possibile trovare le immagini nei giorni successivi. 404Media hanno fatto risalire la probabile origine delle immagini a un gruppo Telegram noto per aver creato immagini non consensuali di donne generate dall’intelligenza artificiale utilizzando strumenti gratuiti tra cui Microsoft Designer. In un’intervista con Notizie della NBC’ Lester Holt venerdì, il CEO di Microsoft Satya Nadella ha affermato che la questione evidenzia qual è la responsabilità dell’azienda e “tutti i guardrail che dobbiamo posizionare attorno alla tecnologia in modo che vengano prodotti contenuti più sicuri”. Ha continuato a dire che “c’è molto da fare lì, e molto da fare lì”, ma ha anche osservato che l’azienda deve “muoversi velocemente”.