Notizia @jdannychadwick
14 febbraio 2023, 11:44 EST | 1 minuto di lettura
Microsoft “Errare è umano”, dice il proverbio. Ma sembra che commettere errori fattuali e creare fatti dal nulla non sia una caratteristica esclusivamente umana. Chatbot IA ChatGPT E Google Bardo entrambi hanno storie documentate di bugie. Ora sembra che Bing AI di Microsoft abbia la stessa cattiva abitudine.
In un post sul blogil ricercatore di intelligenza artificiale Dmitri Brereton ha documentato i numerosi errori commessi dal nuovo chatbot di Microsoft durante la sua demo- errori che nessuno ha notato in quel momento. Brereton inizia evidenziando le inesattezze fattuali visualizzate da Bing AI nel formulare raccomandazioni sull’aspirapolvere per animali domestici. Il chatbot affermava che Bissell Pet Hair Eraser Handheld Vacuum aveva una potenza di aspirazione limitata, un cavo corto ed era abbastanza rumoroso da spaventare gli animali domestici. Tuttavia, niente di tutto ciò è vero. L’aspirapolvere per animali domestici in questione non ha cavo e la recensione citata non dice nulla su presunta rumorosità o potenza di aspirazione limitata.
Inoltre, quando il chatbot AI ha generato un itinerario per una vacanza di cinque giorni in Messico, ha fornito consigli totalmente imprecisi, secondo Brereton. Le raccomandazioni per i locali notturni sembrano essere state fatte dal nulla, con informazioni critiche reali mancanti.
Ma forse gli errori più preoccupanti si sono verificati nel Riepilogo delle finanze di Gap Inc di Bing AI. Nella demo, l’intelligenza artificiale ha mostrato il margine lordo riportato di Gap al 37,4%. Tuttavia, questo è il margine lordo non rettificato. Il margine lordo rettificato è stato del 38,7%. Potrebbe non sembrare un grosso problema per le persone che non capiscono il gergo finanziario, ma è un enorme errore per coloro che hanno a che fare con dollari e centesimi ogni giorno. Bing AI ha anche riportato erroneamente il margine operativo dell’azienda, l’utile diluito per azione e la crescita delle vendite nette previste. Molte delle figure fornite dall’intelligenza artificiale sembrano essere state create da tutto il tessuto.
Bing AI ha anche riassunto le finanze di Lululemon e, secondo Brereton, i risultati sono altrettanto negativi. L’intelligenza artificiale ha riportato erroneamente il margine lordo della società al 58,7% quando il valore reale è del 55,9%, il suo margine operativo al 20,7% quando in realtà è il 19% e gli utili diluiti per azione sono stati riportati a $ 1,65 quando in realtà sono $ 2,00. Ancora una volta, questi potrebbero sembrare pignoli per alcuni, ma quando hai a che fare con la documentazione finanziaria, l’accuratezza è oltre il critico. E ancora, molte di queste cifre sembrano essere vere e proprie invenzioni piuttosto che errori.
Tuttavia, tutto questo dovrebbe essere considerato nel contesto di una tecnologia nuova di zecca. Sia Google che Wikipedia hanno affrontato aspre critiche per aver fornito informazioni inaffidabili quando sono arrivate sulla scena per la prima volta. Gli ingegneri impiegheranno un po’ a capire come e perché i chatbot IA producono risultati imprecisi. Ma fino ad allora, non fidarti di ciò che dicono senza prima controllare tu stesso.
Fonte: Blog DKB