Kamala Harris annuncia l’AI Safety Institute per proteggere i consumatori americani

Di Alessio Perini 6 minuti di lettura
kamala-harris-annuncia-l’ai-safety-institute-per-proteggere-i-consumatori-americani
Kamala Harris annuncia l’AI Safety Institute per proteggere i consumatori americani

Pochi giorni dopo Il presidente Joe Biden ha presentato un ampio ordine esecutivo Riorganizzando il governo federale per quanto riguarda lo sviluppo dell’intelligenza artificiale, il vicepresidente Kamala Harris ha annunciato martedì al vertice sulla sicurezza dell’intelligenza artificiale del Regno Unito una mezza dozzina di altre iniziative di apprendimento automatico che l’amministrazione sta intraprendendo. Tra i punti salienti: l’istituzione dell’AI Safety Institute degli Stati Uniti, la prima pubblicazione di una bozza di linee guida politiche sull’uso dell’intelligenza artificiale da parte del governo federale e una dichiarazione sulle applicazioni militari responsabili per la tecnologia emergente.

“Il presidente Biden ed io crediamo che tutti i leader, del governo, della società civile e del settore privato, abbiano il dovere morale, etico e sociale di garantire che l’intelligenza artificiale venga adottata e avanzata in modo da proteggere il pubblico da potenziali danni e garantire che tutti possono goderne i benefici”, ha detto Harris nel suo discorso preparato.

“Proprio come l’intelligenza artificiale ha il potenziale per fare un bene profondo, ha anche il potenziale per causare danni profondi, dagli attacchi informatici abilitati dall’intelligenza artificiale su una scala superiore a qualsiasi cosa abbiamo visto prima alle armi biologiche formulate dall’intelligenza artificiale che potrebbero mettere in pericolo la vita di milioni di persone. ,” lei disse. Le minacce esistenziali presentate dai sistemi di intelligenza artificiale generativa erano tema centrale del vertice.

“Per definire la sicurezza dell’IA dobbiamo considerare e affrontare l’intero spettro dei rischi dell’IA: minacce all’umanità nel suo complesso, minacce agli individui, alle nostre comunità e alle nostre istituzioni e minacce alle nostre popolazioni più vulnerabili”, ha continuato. “Per garantire che l’IA sia sicura, dobbiamo gestire tutti questi pericoli.”

A tal fine, Harris ha annunciato mercoledì che la Casa Bianca, in collaborazione con il Dipartimento del Commercio, sta creando l’Istituto statunitense per la sicurezza AI (US AISI) all’interno del NIST. Sarà responsabile della creazione e della pubblicazione effettiva di tutte le linee guida, test di riferimento, migliori pratiche e simili per testare e valutare sistemi di intelligenza artificiale potenzialmente pericolosi.

Questi test potrebbero includere gli esercizi della squadra rossa che il presidente Biden aveva menzionato nella sua EO. L’AISI avrebbe inoltre il compito di fornire assistenza tecnica ai legislatori e alle forze dell’ordine su un’ampia gamma di argomenti relativi all’intelligenza artificiale, tra cui l’identificazione dei contenuti generati, l’autenticazione dei contenuti registrati dal vivo, la mitigazione della discriminazione guidata dall’intelligenza artificiale e la garanzia della trasparenza nel suo utilizzo.

Inoltre, l’Office of Management and Budget (OMB) pubblicherà entro questa settimana, per il commento del pubblico, la prima bozza di linee guida politiche dell’amministrazione sull’uso dell’intelligenza artificiale da parte del governo. Come il Progetto per una Carta dei diritti dell’IA su cui si basa, la bozza di linee guida politiche delinea le misure che il governo nazionale può intraprendere per “promuovere l’innovazione responsabile dell’intelligenza artificiale” mantenendo la trasparenza e proteggendo i lavoratori federali da una maggiore sorveglianza e dallo spostamento di posti di lavoro. Questa bozza di guida verrà infine utilizzata per stabilire salvaguardie per l’uso dell’IA in un’ampia gamma di applicazioni del settore pubblico, tra cui trasporti, immigrazione, sanità e istruzione, quindi è resa disponibile per commenti pubblici all’indirizzo ai.gov/input.

Harris ha anche annunciato durante il suo intervento che il Dichiarazione politica sull’uso responsabile dell’intelligenza artificiale e dell’autonomia Il documento statunitense pubblicato a febbraio ha raccolto finora 30 firmatari, i quali hanno tutti concordato una serie di norme per lo sviluppo e l’impiego responsabili di sistemi di intelligenza artificiale militare. Mancano solo 165 nazioni! L’amministrazione sta inoltre lanciando un hackathon virtuale nel tentativo di ridurre il danno che i truffatori telefonici e Internet basati sull’intelligenza artificiale possono arrecare. I partecipanti all’hackathon lavoreranno per costruire modelli di intelligenza artificiale in grado di contrastare le chiamate robotiche e i robotext, in particolare quelli rivolti agli anziani con truffe vocali generate.

L’autenticazione dei contenuti è un obiettivo crescente dell’amministrazione Biden-Harris. L’EO del presidente Biden ha spiegato che il Dipartimento del Commercio guiderà gli sforzi per convalidare i contenuti prodotti dalla Casa Bianca attraverso una collaborazione con il C2PA e altri gruppi di difesa del settore. Lavoreranno per stabilire norme di settore, come ad esempio gli impegni volontari precedentemente ottenuti da 15 delle più grandi aziende di intelligenza artificiale della Silicon Valley. Nelle sue osservazioni, Harris ha esteso questo appello a livello internazionale, chiedendo il sostegno di tutte le nazioni nello sviluppo di standard globali per l’autenticazione dei contenuti prodotti dal governo.

“Questi volontari [company] Gli impegni presi rappresentano un primo passo verso un futuro più sicuro dell’IA, con altri in arrivo”, ha affermato. “Come la storia ha dimostrato, in assenza di regolamentazione e di una forte supervisione da parte del governo, alcune aziende tecnologiche scelgono di dare priorità al profitto rispetto a: Il benessere dei propri clienti; la sicurezza delle nostre comunità; e la stabilità delle nostre democrazie.”

“Un modo importante per affrontare queste sfide – oltre al lavoro che abbiamo già svolto – è attraverso la legislazione, una legislazione che rafforzi la sicurezza dell’IA senza soffocare l’innovazione”, ha continuato Harris.

Condividi questo articolo
Exit mobile version