(Money.it) In una lettera aperta indirizzata ai leader mondiali più di 350 manager del settore AI mettono fortemente in discussione la sicurezza delle attuali tecnologie d’Intelligenza Artificiale (AI) chiedendo di affrontare i pericoli connessi al loro sviluppo nello stesso modo in cui vengono affrontate le pandemie e lo spettro della guerra nucleare.
Il documento è stato diffuso dalla no profit Center for AI Safety e ad aver aderito alla petizione, come riportato dal New York Times, ci sono anche l’amministratore delegato di OpenAI Sam Altman, il numero uno di Google DeepMind Demis Hassabis e il leader di Anthropic Dario Amodei seguiti da Geoffrey Hinton e Yoshua Bengio, due dei tre ricercatori che hanno vinto un Turing Award per il loro lavoro pionieristico sulle reti neurali e spesso considerati i “padrini” del moderno movimento dell’IA.
Leggere firme come queste potrebbe apparire paradossale ma nel testo la portata del fenomeno viene descritta in termini piuttosto drammatici. Si evidenza ad esempio come “mitigare il rischio di estinzione” della specie umana posto dall’intelligenza artificiale “dovrebbe essere una priorità”. Da qui l’analogia con l’attenzione e la solerzia con la quale si interviene in caso di pericolo di conflitti atomici ed epidemie globali.
Allineati con questa visione anche esponenti mondo della politica e delle istituzioni internazionali così come aziende del calibro di Skype, Quora e Notion. Manca all’appell
© Money.it