Un nuovo strumento consente agli artisti di combattere i bot di immagini IA nascondendo i dati corrotti in bella vista

Di Alessio Perini 3 minuti di lettura
un-nuovo-strumento-consente-agli-artisti-di-combattere-i-bot-di-immagini-ia-nascondendo-i-dati-corrotti-in-bella-vista
Un nuovo strumento consente agli artisti di combattere i bot di immagini IA nascondendo i dati corrotti in bella vista

Dagli scioperi di Hollywood ai ritratti digitali, il potenziale dell’intelligenza artificiale di rubare il lavoro dei creativi e come fermarlo ha dominato il dibattito tecnologico nel 2023. L’ultimo sforzo per proteggere gli artisti e le loro creazioni è Nightshade, uno strumento che consente agli artisti di aggiungere pixel non rilevabili al loro lavoro che potrebbe corrompere i dati di addestramento di un’IA, IL Revisione della tecnologia del MIT rapporti. La creazione di Nightshade arriva come le grandi aziende OpenAI e Meta affrontano azioni legali per violazione del copyright e rubare opere personali senza compenso.

Il professore dell’Università di Chicago Ben Zhao e il suo team hanno creato Nightshade, attualmente in fase di revisione paritaria, nel tentativo di restituire parte del potere nelle mani degli artisti. L’hanno testato su recenti modelli di Stable Diffusion e su un’intelligenza artificiale che hanno costruito personalmente da zero.

Nightshade funziona essenzialmente come un veleno, alterando il modo in cui un modello di apprendimento automatico produce contenuti e l’aspetto del prodotto finito. Ad esempio, potrebbe far sì che un sistema di intelligenza artificiale interpreti la richiesta di una borsa come un tostapane o mostri l’immagine di un gatto invece del cane richiesto (lo stesso vale per richieste simili come cucciolo o lupo).

Professore Ben Zhao | Università di Chicago

Nightshade segue il rilascio ad agosto di Zhao e del suo team di uno strumento chiamato Glaze, che altera leggermente i pixel di un’opera d’arte ma fa sì che i sistemi di intelligenza artificiale rilevino l’immagine iniziale come completamente diversa da quella che è. Un artista che desidera proteggere il proprio lavoro può caricarlo su Glaze e attivare l’utilizzo di Nightshade.

Una tecnologia dannosa come Nightshade potrebbe fare molto per incoraggiare i principali attori dell’intelligenza artificiale a richiedere e compensare adeguatamente il lavoro degli artisti (sembra un’alternativa migliore al ricablaggio del sistema). Le aziende che cercano di rimuovere il veleno probabilmente dovranno individuare ogni singolo dato corrotto, un compito impegnativo. Zhao avverte che alcuni individui potrebbero tentare di utilizzare lo strumento per scopi malvagi, ma che qualsiasi danno reale richiederebbe migliaia di opere corrotte.

TAGGATO:
Condividi questo articolo
Exit mobile version