Microsoft, OpenAI, Google e altri concordano di combattere i deepfake legati alle elezioni

Di Valentina Ambrosetti 9 minuti di lettura
Deepfake

Una coalizione di 20 aziende tecnologiche firmato un accordo venerdì per aiutare a prevenire i deepfake dell’IA nelle cruciali elezioni del 2024 che si terranno in più di 40 paesi. OpenAI, Google, Meta, Amazon, Adobe e X sono tra le aziende che aderiscono al patto per prevenire e combattere i contenuti generati dall’intelligenza artificiale che potrebbero influenzare gli elettori. Tuttavia, il linguaggio vago dell’accordo e la mancanza di un’applicazione vincolante mettono in dubbio se sia abbastanza lontano.

L’elenco delle aziende che firmano l’“Accordo tecnologico per combattere l’uso ingannevole dell’intelligenza artificiale nelle elezioni del 2024” include quelle che creano e distribuiscono modelli di intelligenza artificiale, nonché piattaforme social dove è più probabile che compaiano i deepfake. I firmatari sono Adobe, Amazon, Anthropic, Arm, ElevenLabs, Google, IBM, Inflection AI, LinkedIn, McAfee, Meta, Microsoft, Nota, OpenAI, Snap Inc., Stability AI, TikTok, Trend Micro, Truepic e X (ex Twitter ).

Il gruppo descrive l’accordo come “una serie di impegni per implementare la tecnologia che contrasta i contenuti dannosi generati dall’intelligenza artificiale destinati a ingannare gli elettori”. I firmatari hanno concordato i seguenti otto impegni:

  • Sviluppo e implementazione di tecnologie per mitigare i rischi legati ai contenuti elettorali ingannevoli dell’intelligenza artificiale, inclusi strumenti open source, ove appropriato
  • Valutare i modelli nell’ambito di questo accordo per comprendere i rischi che potrebbero presentare in merito ai contenuti elettorali ingannevoli dell’intelligenza artificiale
  • Cercando di rilevare la distribuzione di questi contenuti sulle loro piattaforme
  • Cercando di affrontare in modo appropriato questo contenuto rilevato sulle loro piattaforme
  • Promuovere la resilienza intersettoriale ai contenuti elettorali ingannevoli dell’intelligenza artificiale
  • Fornire trasparenza al pubblico su come l’azienda affronta la questione
  • Continuando a impegnarsi con un insieme diversificato di organizzazioni globali della società civile e del mondo accademico
  • Sostenere gli sforzi volti a promuovere la consapevolezza pubblica, l’alfabetizzazione mediatica e la resilienza di tutta la società

L’accordo si applicherà ad audio, video e immagini generati dall’intelligenza artificiale. Affronta i contenuti che “falsificano o alterano ingannevolmente l’aspetto, la voce o le azioni di candidati politici, funzionari elettorali e altre parti interessate chiave in un’elezione democratica o che forniscono false informazioni agli elettori su quando, dove e come possono votare. “

I firmatari affermano che lavoreranno insieme per creare e condividere strumenti per rilevare e affrontare la distribuzione online di deepfake. Inoltre, intendono promuovere campagne educative e “fornire trasparenza” agli utenti.

Sam Altman, CEO di OpenAI (FABRICE COFFRINI via Getty Images)

OpenAI, uno dei firmatari, lo ha già detto il mese scorso prevede di sopprimere la disinformazione legata alle elezioni in tutto il mondo. Immagini generate con quelle dell’azienda DALL-E 3 Lo strumento sarà codificato con un classificatore che fornisce una filigrana digitale per chiarirne l’origine come immagini generate dall’intelligenza artificiale. IL ChatGPT Il produttore ha affermato che lavorerà anche con giornalisti, ricercatori e piattaforme per ottenere feedback sul suo classificatore di provenienza. Prevede inoltre di impedire ai chatbot di impersonare i candidati.

“Ci impegniamo a proteggere l’integrità delle elezioni applicando politiche che prevengono gli abusi e migliorando la trasparenza sui contenuti generati dall’intelligenza artificiale”, ha scritto Anna Makanju, vicepresidente degli affari globali di OpenAI, nel comunicato stampa congiunto del gruppo. “Non vediamo l’ora di lavorare con partner del settore, leader della società civile e governi di tutto il mondo per contribuire a salvaguardare le elezioni dall’uso ingannevole dell’intelligenza artificiale”.

Notevolmente assente dall’elenco è Midjourney, la società con un generatore di immagini AI (con lo stesso nome) che attualmente produce alcune delle foto false più convincenti. Tuttavia, la società ha detto all’inizio di questo mese che lo avrebbe fatto prendere in considerazione la possibilità di bandire del tutto le generazioni politiche durante la stagione elettorale. L’anno scorso, Midjourney era abituato creare un’immagine falsa virale di Papa Benedetto inaspettatamente cammina impettito per strada con una giacca bianca gonfia. Uno dei concorrenti più vicini di Midjourney, Stability AI (creatori del software open source Diffusione stabile), ha partecipato. Engadget ha contattato Midjourney per un commento sulla sua assenza e aggiorneremo questo articolo se riceveremo risposta.

Solo Apple è assente tra i “Big Five” della Silicon Valley. Tuttavia, ciò potrebbe essere spiegato dal fatto che il produttore di iPhone non ha ancora lanciato alcun prodotto di intelligenza artificiale generativa, né ospita una piattaforma di social media in cui possano essere distribuiti deepfake. Indipendentemente da ciò, abbiamo contattato il PR di Apple per chiarimenti ma non abbiamo ricevuto risposta al momento della pubblicazione.

Sebbene i principi generali concordati dalle 20 aziende sembrino un inizio promettente, resta da vedere se una serie di accordi vaghi senza un’applicazione vincolante sarà sufficiente per combattere uno scenario da incubo in cui i cattivi attori del mondo utilizzano l’intelligenza artificiale generativa per influenzare l’opinione pubblica e eleggere candidati aggressivamente antidemocratici – negli Stati Uniti e altrove.

“Il linguaggio non è così forte come ci si potrebbe aspettare”, Rachel Orey, direttrice associata senior del Progetto Elezioni presso il Bipartisan Policy Center, detto La stampa associata di venerdì. “Penso che dovremmo dare credito dove è dovuto e riconoscere che le aziende hanno un interesse a che i loro strumenti non vengano utilizzati per compromettere elezioni libere ed eque. Detto questo, è volontario e terremo d’occhio se verranno portati a termine”.

I deepfake generati dall’intelligenza artificiale sono già stati utilizzati nelle elezioni presidenziali americane. Già nell’aprile 2023, il Comitato Nazionale Repubblicano (RNC) ha pubblicato un annuncio utilizzando immagini generate dall’intelligenza artificiale del presidente Joe Biden e del vicepresidente Kamala Harris. È seguita la campagna per Ron DeSantis, che da allora ha abbandonato le primarie repubblicane Immagini generate dall’intelligenza artificiale del rivale e probabile candidato Donald Trump nel giugno 2023. Entrambi includevano dichiarazioni di non responsabilità facili da non notare secondo cui le immagini erano generate dall’intelligenza artificiale.

A gennaio, gli elettori del New Hampshire sono stati accolti con una chiamata robotica che imitava la voce del presidente Biden generata dall’intelligenza artificiale, esortandoli a non votare. (Anadolu tramite Getty Images)

Nel mese di gennaio, un Deepfake generato dall’intelligenza artificiale della voce del presidente Biden è stato utilizzato da due società con sede in Texas per effettuare chiamate rubate agli elettori del New Hampshire, esortandoli a non votare alle primarie statali del 23 gennaio. La clip, generata utilizzando lo strumento di clonazione vocale di ElevenLabs, ha raggiunto fino a 25.000 elettori NH, secondo il procuratore generale dello Stato. ElevenLabs è tra i firmatari del patto.

La Federal Communication Commission (FCC) ha agito rapidamente per prevenire ulteriori abusi della tecnologia di clonazione vocale nelle false chiamate elettorali. All’inizio di questo mese, esso ha votato all’unanimità per vietare le chiamate robotizzate generate dall’intelligenza artificiale. Il Congresso degli Stati Uniti (apparentemente eternamente bloccato) non ha approvato alcuna legislazione sull’IA. A dicembre l’Unione Europea (UE) ha concordato un ampio disegno di legge sullo sviluppo della sicurezza dell’AI Act ciò potrebbe influenzare gli sforzi normativi di altre nazioni.

“Mentre la società abbraccia i vantaggi dell’intelligenza artificiale, abbiamo la responsabilità di contribuire a garantire che questi strumenti non diventino un’arma nelle elezioni”, ha scritto il vicepresidente e presidente di Microsoft Brad Smith in un comunicato stampa. “L’intelligenza artificiale non ha creato l’inganno elettorale, ma dobbiamo garantire che non aiuti lo sviluppo dell’inganno”.

Condividi questo articolo
Exit mobile version