(BorsaeFinanza.it)
Le big tech americane si impegneranno con la Casa Bianca per garantire la sicurezza e la trasparenza sull’intelligenza artificiale. La comunicazione è arrivata dalle autorità USA a seguito dell’incontro tra il presidente degli Stati Uniti Joe Biden e i massimi dirigenti di Amazon, Alphabet, Microsoft, Meta Platforms, OpenAI, Inflection AI e Anthropic, in cui si è convenuto di accettare da parte delle aziende test di sicurezza interni ed esterni ai modelli AI (Artificial Intelligence) prima che vengano rilasciati.
La Casa Bianca afferma che le società “prenderanno impegni volontari per aiutare a muoversi verso uno sviluppo sicuro, protetto e trasparente della tecnologia AI”. In sostanza, le sette aziende svilupperanno un sistema per rendere trasparenti tutti i contenuti (testi, immagini, audio e video) generati dall’intelligenza artificiale in modo da mettere in condizione gli utenti di conoscere quando la tecnologia è stata utilizzata. Non solo, le aziende condivideranno più informazioni in tutto il settore e con il governo in merito alle azioni che compiono per mitigare i rischi. Tra l’altro, investiranno più soldi per garantire la sicurezza informatica e rendere più agevole per terze parti individuare e segnalare le falle dei loro sistemi.
Nick Clegg, presidente di Facebook e Instagram, che fanno parte del gruppo Meta Platforms, ha affermato che questi impegni volontari rappresentano un “primo passo importante affinché siano garantiti guardrail responsabili per l’AI”. Mentre Brad Smith, presidente di Microsoft, ha dichiarato che la Casa Bianca ha “creato una fondazione per aiutare a garantire che la promessa dell’intelligenza artificiale rimanesse al passo con i suoi rischi”. Anche Anna Makanju, vicepresidente degli affari globali di OpenAI, si è espressa ritenendo che tutto ciò “contribuisce a pratiche specifiche e concrete alla discussione in corso sulla regolamentazione dell’AI”.
Intelligenza artificiale: serve una legge bipartisan
Negli ultimi mesi l’intelligenza artificiale ha letteralmente rivoluzionato il business delle aziende. Le società tecnologiche hanno colto questa grande opportunità impiegando denaro, risorse ed energia per sviluppare i modelli che possono sostituire l’uomo in molte applicazioni. Tuttavia, ciò ha sollevato preoccupazioni in merito alla sicurezza. In alcuni Paesi come l’Italia, ad esempio, il chatbot di OpenAI ha ricevuto uno stop nel mese di marzo, fino a quando la startup non ha rimosso alcuni elementi che erano da ostacolo rassicurando le autorità. Il problema però è sentito ovunque e da tempo si parla negli Stati Uniti di una regolamentazione a livello parlamentare.
La stessa Casa
© Borsa e Finanza