Facebook non è estraneo a moderare e mitigare la disinformazione sulla sua piattaforma, avendo utilizzato a lungo sistemi di machine learning e intelligenza artificiale per integrare i suoi sforzi di moderazione guidati dall’uomo. All’inizio di ottobre, l’azienda ha esteso la propria esperienza nel machine learning alle proprie attività pubblicitarie un insieme sperimentale di strumenti di intelligenza artificiale generativa che può eseguire attività come la generazione di sfondi, la regolazione dell’immagine e la creazione di didascalie per i contenuti video di un inserzionista. Reuters riferisce lunedì che Meta specificamente non metterà questi strumenti a disposizione degli esperti di marketing politico prima di quello che dovrebbe essere un ciclo elettorale nazionale brutale e divisivo.
La decisione di Meta di vietare l’uso dell’intelligenza artificiale generativa è in linea con gran parte dell’ecosistema dei social media, anche se, come Reuters si affretta a sottolineare, la società “non ha ancora reso pubblica la decisione in alcun aggiornamento dei suoi standard pubblicitari”. TikTok e Snap vietano entrambi gli annunci politici sulle loro reti, Google utilizza una “lista nera di parole chiave” per impedire ai suoi strumenti pubblicitari generativi di intelligenza artificiale di sconfinare nel discorso politico e X (ex Twitter) è, beh, l’hai visto.
Meta consente un’ampia gamma di eccezioni a questa regola. Il divieto dello strumento si estende solo ai “video fuorvianti generati dall’intelligenza artificiale in tutti i contenuti, compresi i post organici non a pagamento, con un’eccezione per la parodia o la satira”, secondo Reuters. Tali eccezioni sono attualmente all’esame del comitato di vigilanza indipendente della società come parte di un caso in cui Meta ha lasciato l’azienda un video “alterato” del presidente Biden perché, ha sostenuto la società, non è stato generato da un’intelligenza artificiale.
Facebook, insieme ad altre importanti società di intelligenza artificiale della Silicon Valley, hanno concordato a luglio impegni volontari stabiliti dalla Casa Bianca attuando salvaguardie tecniche e politiche nello sviluppo dei loro futuri sistemi di intelligenza artificiale generativa. Questi includono l’espansione degli sforzi di machine learning contraddittorio (noti anche come red-teaming) per sradicare comportamenti modello scorretti, la condivisione di informazioni su fiducia e sicurezza sia all’interno del settore che con il governo, nonché lo sviluppo di uno schema di filigrana digitale per autenticare i contenuti ufficiali e rendere chiari che non è generato dall’intelligenza artificiale.