Dopo una maratona di 72 ore di dibattito, i legislatori dell’Unione Europea venerdì hanno raggiunto un accordo storico sul suo ampio disegno di legge sullo sviluppo della sicurezza dell’AI Act, il più ampio e di vasta portata nel suo genere fino ad oggi, riferisce Il Washington Post. I dettagli dell’accordo stesso non erano immediatamente disponibili.
“Questa legislazione rappresenterà uno standard, un modello, per molte altre giurisdizioni là fuori”, ha detto Dragoș Tudorache, un parlamentare rumeno che ha co-guidato i negoziati sulla legge sull’AI. Il Washington Post, “il che significa che dobbiamo avere un ulteriore dovere di diligenza quando lo redigiamo perché influenzerà molti altri.”
Le normative proposte determinerebbero le modalità con cui i futuri modelli di apprendimento automatico potrebbero essere sviluppati e distribuiti all’interno del blocco commerciale, influenzando il loro utilizzo in applicazioni che vanno dall’istruzione, all’occupazione, alla sanità. Lo sviluppo dell’intelligenza artificiale verrebbe suddiviso in quattro categorie a seconda del rischio sociale che ciascuna di esse potenzialmente comporta: minimo, limitato, elevato e vietato.
Gli usi vietati includono qualsiasi cosa che eluda la volontà dell’utente, prenda di mira gruppi sociali protetti o fornisca tracciamento biometrico in tempo reale (come riconoscimento facciale). Gli usi ad alto rischio includono qualsiasi cosa “destinata a essere utilizzata come componente di sicurezza di un prodotto” o che deve essere utilizzata in applicazioni definite come infrastrutture critiche, istruzione, questioni legali/giudiziarie e assunzione di dipendenti. Chatbot come ChatGPT, Bard e Bing lo farebbero rientrare nella metrica del “rischio limitato”.
“Ancora una volta la Commissione europea si è fatta avanti in modo coraggioso per affrontare le tecnologie emergenti, proprio come aveva fatto con la privacy dei dati attraverso il GDPR”, ha affermato la Dott.ssa Brandie Nonnecke, direttrice del CITRIS Policy Lab presso l’UC Berkeley. ha detto a Engadget nel 2021. “La proposta di regolamento è piuttosto interessante in quanto affronta il problema con un approccio basato sul rischio”, simile a quanto suggerito in Il quadro normativo sull’IA proposto dal Canada.
Erano in corso negoziati sulle regole proposte stato interrotto nelle ultime settimane da Francia, Germania e Italia. Stavano ostacolando i discorsi sulle regole che guidano il modo in cui i paesi membri dell’UE potrebbero sviluppare modelli fondamentali, IA generalizzate da cui è possibile mettere a punto applicazioni più specializzate. GPT-4 di OpenAI è uno di questi modelli fondamentali, come ChatGPT, GPT e altre applicazioni di terze parti vengono tutte addestrate dalla sua funzionalità di base. I tre paesi temevano che le rigorose normative UE sui modelli di intelligenza artificiale generativa potessero ostacolare gli sforzi dei paesi membri per svilupparli in modo competitivo.
La CE aveva precedentemente affrontato le crescenti sfide legate alla gestione delle tecnologie IA emergenti attraverso una serie di sforzi, rilasciando entrambi i primi Strategia europea sull’intelligenza artificiale E Piano coordinato sull’IA nel 2018, seguito dal Linee guida per un’intelligenza artificiale affidabile nel 2019. L’anno successivo, la Commissione ha pubblicato a Libro bianco sull’intelligenza artificiale E Rapporto sulle implicazioni in materia di sicurezza e responsabilità dell’intelligenza artificiale, dell’Internet delle cose e della robotica.
“L’intelligenza artificiale non dovrebbe essere fine a se stessa, ma uno strumento al servizio delle persone con l’obiettivo finale di aumentare il benessere umano”, ha scritto la Commissione europea nella sua bozze di regolamenti sull’IA. “Le norme sull’intelligenza artificiale disponibili nel mercato dell’Unione o che incidono in altro modo sui cittadini dell’Unione dovrebbero quindi mettere le persone al centro (essere incentrate sull’uomo), in modo che possano avere fiducia che la tecnologia venga utilizzata in modo sicuro e conforme alla legge , compreso il rispetto dei diritti fondamentali.”
“Allo stesso tempo, tali regole per l’intelligenza artificiale dovrebbero essere equilibrate, proporzionate e non limitare o ostacolare inutilmente lo sviluppo tecnologico”, ha continuato. “Ciò è di particolare importanza perché, sebbene l’intelligenza artificiale sia già presente in molti aspetti della vita quotidiana delle persone, non è possibile anticipare tutti i possibili usi o applicazioni che potrebbero verificarsi in futuro.”
Più recentemente, la CE ha iniziato a collaborare con i membri del settore su base volontaria creare regole interne che consentano alle aziende e agli enti regolatori di operare secondo le stesse regole di base concordate. “[Google CEO Sundar Pichai] e ho convenuto che non possiamo permetterci di aspettare che la regolamentazione sull’IA diventi effettivamente applicabile e di collaborare con tutti gli sviluppatori di intelligenza artificiale per sviluppare già un patto sull’intelligenza artificiale su base volontaria prima della scadenza legale”, ha affermato Thierry Breton, capo dell’industria della Commissione europea (CE). ha affermato in una dichiarazione di maggio la CE è entrato in discussioni simili anche con aziende con sede negli Stati Uniti.
Sviluppando…