Il radicale ordine esecutivo della Casa Bianca prende di mira le sfide più difficili dell’intelligenza artificiale

Di Alessio Perini 14 minuti di lettura
il-radicale-ordine-esecutivo-della-casa-bianca-prende-di-mira-le-sfide-piu-difficili-dell’intelligenza-artificiale
Il radicale ordine esecutivo della Casa Bianca prende di mira le sfide più difficili dell’intelligenza artificiale

Lunedì l’amministrazione Biden ha svelato i suoi ambiziosi prossimi passi per affrontare e regolamentare lo sviluppo dell’intelligenza artificiale. Il suo nuovo e ampio ordine esecutivo mira a stabilire ulteriori tutele per il pubblico e a migliorare le migliori pratiche per le agenzie federali e i loro appaltatori.

“Il Presidente diversi mesi fa ha ordinato alla sua squadra di usare ogni leva”, ha detto ai giornalisti un alto funzionario dell’amministrazione in una recente conferenza stampa. “Questo è ciò che fa questo ordine, conferendo al governo federale il potere di intervenire in un’ampia gamma di aree per gestire i rischi dell’intelligenza artificiale e sfruttarne i benefici… Difende consumatori e lavoratori, promuove l’innovazione e la concorrenza, fa avanzare la leadership americana intorno il mondo e come tutti gli ordini esecutivi, questo ha forza di legge.”

Queste azioni verranno introdotte nel corso del prossimo anno con piccoli cambiamenti in termini di sicurezza e protezione che avverranno in circa 90 giorni e con schemi di reporting e trasparenza dei dati più coinvolti che richiederanno dai 9 ai 12 mesi per essere pienamente implementati. L’amministrazione sta inoltre creando un “consiglio AI”, presieduto dal vice capo dello staff della Casa Bianca Bruce Reedche incontrerà i capi delle agenzie federali per garantire che le azioni vengano eseguite nei tempi previsti.

STAMPA ASSOCIATA

Sicurezza pubblica

“In risposta alla leadership del Presidente sull’argomento, 15 grandi aziende tecnologiche americane hanno iniziato i loro impegni volontari “Garantire che la tecnologia dell’intelligenza artificiale sia sicura, protetta e affidabile prima di renderla pubblica”, ha affermato l’alto funzionario dell’amministrazione. “Questo non è sufficiente”.

L’EO dirige la creazione di nuovi standard per la sicurezza e la protezione dell’IA, compresi i requisiti di segnalazione per gli sviluppatori i cui modelli di fondazione potrebbero avere un impatto sulla sicurezza nazionale o economica. Tali requisiti si applicheranno anche allo sviluppo di strumenti di intelligenza artificiale per implementare autonomamente soluzioni di sicurezza sulle infrastrutture software critiche.

Sfruttando il Legge sulla produzione della difesa, questo EO “richiederà che le aziende che sviluppano qualsiasi modello di fondazione che rappresenti un serio rischio per la sicurezza nazionale, la sicurezza economica nazionale o la salute e la sicurezza pubblica nazionale debbano notificare il governo federale durante la formazione del modello e condividere i risultati di tutte le procedure rosse”. test di sicurezza della squadra”, si legge in un comunicato stampa della Casa Bianca. Tali informazioni devono essere condivise prima che il modello venga reso disponibile al pubblico, il che potrebbe contribuire a ridurne la velocità le aziende lanciano prodotti di machine learning incompleti e potenzialmente mortali.

Oltre alla condivisione dei risultati dei test della squadra rossa, l’EO richiede anche la divulgazione delle sessioni di addestramento del sistema (essenzialmente, la sua cronologia di sviluppo iterativo). “Ciò che fa è creare uno spazio prima del rilascio… per verificare che il sistema sia sicuro e protetto”, hanno detto i funzionari.

I funzionari dell’amministrazione si sono affrettati a sottolineare che questo obbligo di rendicontazione non avrà alcun impatto sui modelli di intelligenza artificiale attualmente disponibili sul mercato, né avrà alcun impatto sulle società di intelligenza artificiale indipendenti o di piccole e medie dimensioni che andranno avanti, poiché la soglia per l’applicazione è piuttosto elevata. È pensato specificamente per la prossima generazione di sistemi di intelligenza artificiale su cui aziende del calibro di Google, Meta e OpenAI stanno già lavorando con l’applicazione su modelli a partire da 10^26 petaflop, una capacità attualmente oltre i limiti dei modelli di intelligenza artificiale esistenti. “Questo non riuscirà a catturare i sistemi di intelligenza artificiale addestrati da studenti laureati, o anche da professori”, ha detto il funzionario dell’amministrazione.

Inoltre, l’EO incoraggerà i Dipartimenti dell’Energia e della Sicurezza Nazionale ad affrontare le minacce dell’IA “alle infrastrutture critiche, nonché ai rischi chimici, biologici, radiologici, nucleari e per la sicurezza informatica”, secondo il comunicato. “Le agenzie che finanziano progetti di scienze della vita stabiliranno questi standard come condizione per il finanziamento federale, creando potenti incentivi per garantire uno screening adeguato e gestire i rischi potenzialmente aggravati dall’intelligenza artificiale”. In breve, qualsiasi sviluppatore trovato in violazione dell’EO può probabilmente aspettarsi una visita tempestiva e spiacevole da parte del DoE, della FDA, dell’EPA o di un’altra agenzia di regolamentazione applicabile, indipendentemente dall’età del modello di intelligenza artificiale o dalla velocità di elaborazione.

Nel tentativo di affrontare in modo proattivo lo stato decrepito dell’infrastruttura digitale americana, l’ordinanza cerca anche di istituire un programma di sicurezza informatica, vagamente basato sulle infrastrutture esistenti dell’amministrazione. Sfida informatica dell’intelligenza artificiale, per sviluppare strumenti di intelligenza artificiale in grado di sradicare e rafforzare autonomamente le vulnerabilità della sicurezza nelle infrastrutture software critiche. Resta da vedere se questi sistemi saranno in grado di affrontare le preoccupazioni dei modelli che si comportano male Il capo della SEC Gary Gensler ha recentemente sollevato una questione.

Filigrana AI e convalida crittografica

Stiamo già assistendo alla normalizzazione degli inganni dei deepfake e del potenziamento dell’intelligenza artificiale disinformazione durante la campagna elettorale. Pertanto, la Casa Bianca sta adottando misure per garantire che il pubblico possa fidarsi dei contenuti di testo, audio e video che pubblica sui suoi canali ufficiali. Il pubblico deve essere in grado di verificare facilmente se il contenuto che vede è generato o meno dall’intelligenza artificiale, hanno affermato i funzionari della Casa Bianca durante la conferenza stampa.

Adobe

Il Dipartimento del Commercio è responsabile di quest’ultimo sforzo e si prevede che lavorerà a stretto contatto con i gruppi di difesa del settore esistenti come il C2PA e la sua organizzazione sorella, il CAI, per sviluppare e implementare un sistema di watermarking per le agenzie federali. “Il nostro obiettivo è supportare, facilitare e aiutare a standardizzare questo lavoro [by the C2PA]”, hanno detto i funzionari dell’amministrazione. “Ci consideriamo come inseriti in quell’ecosistema”.

I funzionari hanno inoltre spiegato che il governo sta supportando gli standard tecnici e le pratiche sottostanti che porteranno a un’adozione più ampia della filigrana digitale, simile al lavoro svolto per lo sviluppo dell’ecosistema HTTPS e per coinvolgere sia gli sviluppatori che il pubblico. Ciò aiuterà i funzionari federali a raggiungere il loro altro obiettivo: garantire che si possa fare affidamento sui messaggi ufficiali del governo.

Diritti civili e tutela dei consumatori

Il primo Progetto per una Carta dei diritti dell’IA che la Casa Bianca uscito lo scorso ottobre ha ordinato alle agenzie di “combattere la discriminazione algoritmica imponendo al tempo stesso alle autorità esistenti di proteggere i diritti e la sicurezza delle persone”, ha affermato il funzionario dell’amministrazione. “Ma c’è altro da fare.”

La nuova EO richiederà che le linee guida siano estese a “proprietari, programmi di benefici federali e appaltatori federali” per evitare che i sistemi di intelligenza artificiale esacerbano la discriminazione all’interno delle loro sfere di influenza. Indirizzerà inoltre il Dipartimento di Giustizia a sviluppare le migliori pratiche per indagare e perseguire le violazioni dei diritti civili legate all’intelligenza artificiale, nonché, secondo l’annuncio, “l’uso dell’intelligenza artificiale nelle sentenze, sulla libertà condizionale e nella libertà vigilata, nel rilascio e nella detenzione preventiva, nelle valutazioni dei rischi”. , sorveglianza, previsione della criminalità, polizia predittiva e analisi forense.”

Inoltre, l’EO chiede di dare priorità al sostegno federale per accelerare lo sviluppo di tecniche di preservazione della privacy che consentirebbero ai futuri LLM di essere formati su set di dati di grandi dimensioni senza l’attuale rischio di lacquisire i dettagli personali che tali set di dati potrebbero contenere. Queste soluzioni potrebbero includere “strumenti crittografici che preservano la privacy degli individui”, secondo il comunicato della Casa Bianca, sviluppati con l’assistenza della Research Coordination Network e della National Science Foundation. L’ordine esecutivo ribadisce inoltre le sue richieste per una legislazione bipartisan da parte del Congresso che affronti le più ampie questioni di privacy che i sistemi di intelligenza artificiale presentano per i consumatori.

In termini di assistenza sanitaria, l’EO afferma che il Dipartimento della salute e dei servizi umani istituirà un programma di sicurezza che monitora e pone rimedio alle pratiche mediche non sicure basate sull’intelligenza artificiale. Gli insegnanti vedranno anche il sostegno del governo federale nell’utilizzo di strumenti educativi basati sull’intelligenza artificiale come il tutoraggio personalizzato di chatbot.

Tutele dei lavoratori

L’amministrazione Biden lo ammette, mentre la rivoluzione dell’intelligenza artificiale lo è un vantaggio decisivo per gli affarile sue capacità lo rendono una minaccia per la sicurezza dei lavoratori spostamento del lavoro E sorveglianza intrusiva sul posto di lavoro. L’EO cerca di affrontare questi problemi con “lo sviluppo di principi e migliori pratiche da parte dei datori di lavoro che mitigano i danni e massimizzano i benefici dell’intelligenza artificiale per i lavoratori”, ha affermato un funzionario dell’amministrazione. “Incoraggiamo le agenzie federali ad adottare queste linee guida nell’amministrazione dei loro programmi”.

Richard Shotwell/Invisione/AP

L’EO ordinerà inoltre al Dipartimento del Lavoro e al Consiglio dei consulenti economici di studiare sia il modo in cui l’intelligenza artificiale potrebbe avere un impatto sul mercato del lavoro sia il modo in cui il governo federale potrebbe sostenere meglio i lavoratori che “affrontano l’interruzione del lavoro” in futuro. I funzionari dell’amministrazione hanno anche sottolineato i potenziali benefici che l’intelligenza artificiale potrebbe apportare alla burocrazia federale, tra cui la riduzione dei costi e l’aumento dell’efficacia della sicurezza informatica. “Ci sono molte opportunità qui, ma dobbiamo garantire lo sviluppo responsabile del governo e l’implementazione dell’intelligenza artificiale”, ha affermato un funzionario dell’amministrazione.

A tal fine, lunedì l’amministrazione lancerà un nuovo portale federale per il lavoro, AI.gov, che offrirà informazioni e indicazioni sui programmi di borse di studio disponibili per le persone in cerca di lavoro presso il governo federale. “Stiamo cercando di ottenere più talenti nell’intelligenza artificiale a tutti i livelli”, ha detto un funzionario dell’amministrazione. “Programmi come US Digital Service, Presidential Innovation Fellowship e USA Jobs – fanno tutto il possibile per far entrare i talenti”. La Casa Bianca sta anche cercando di espandere le norme sull’immigrazione esistenti per semplificare i criteri di visto, i colloqui e le revisioni per le persone che cercano di trasferirsi e lavorare negli Stati Uniti in questi settori avanzati.

Secondo quanto riferito, la Casa Bianca non ha previsto in anteprima il settore su questa particolare fascia di cambiamenti politici radicali, anche se i funzionari dell’amministrazione hanno notato che avevano già collaborato ampiamente con le società di intelligenza artificiale su molte di queste questioni. Il Senato ha tenuto il suo secondo AI Insight Forum evento la scorsa settimana a Capitol Hill, mentre è previsto un intervento del vicepresidente Kamala Harris Summit del Regno Unito sulla sicurezza dell’intelligenza artificialeospitato martedì dal primo ministro Rishi Sunak.

Chip Somodevilla tramite Getty Images

All’a Evento del Washington Post giovedìIl leader della maggioranza al Senato Charles Schumer (D-NY) stava già sostenendo che l’ordine esecutivo non è andato abbastanza lontano e non può essere considerato un sostituto efficace dell’azione del Congresso, che fino ad oggi ha tardato ad arrivare.

“Probabilmente c’è un limite a ciò che puoi fare con l’ordine esecutivo”, ha detto Schumer WaPo”Essi [the Biden Administration] sono preoccupati e stanno facendo molto a livello normativo, ma tutti ammettono che l’unica vera risposta è legislativa”.

TAGGATO:
Condividi questo articolo
Exit mobile version