Notizia Modelli come ChatGPT sono una fonte scarsa per qualsiasi informazione.
@andrew_andrew__
6 febbraio 2023, 16:16 EST | 2 minuti di lettura
IgorZh/Shutterstock.com È stato un anno difficile per l’industria tecnologica: gli investitori sono ombrosi, i licenziamenti stanno dominando le notizie e uno strumento fastidioso chiamato ChatGPT minaccia di distruggere i motori di ricerca. Quindi, ironia della sorte, Google e Microsoft stanno rispondendo a questa minaccia correndo per rovinare i propri motori di ricerca.
Cominciamo dall’alto; ChatGPT è non è una fonte attendibile per qualsiasi informazione. È uno strumento interessante, può svolgere diversi compiti, ma non è intelligente e manca di qualsiasi tipo di comprensione o conoscenza. Sfortunatamente, i chatbot come ChatGPT possono sembrare molto autorevoli, quindi un sacco di persone (inclusi giornalisti, investitori e lavoratori del settore tecnologico) credono erroneamente che sia ben informato e accurato.
Ora, potresti dire che strumenti come Google Search non sono intelligenti e avresti ragione. Potresti anche criticare l’efficacia di Ricerca Google o Bing: questi servizi sono gamificati dai siti Web e, di conseguenza, portano un sacco di spazzatura sulla superficie di Internet. Ma a differenza di ChatGPT, Google non risponde alle domande. Ti collega solo a siti Web, lasciandoti capire se qualcosa è giusto o sbagliato. È uno strumento aggregato, piuttosto che un’autorità.
Ma la macchina dell’hype sta inviando ChatGPT nella stratosfera e la grande tecnologia vuole seguirla. Dopo che blog tecnologici e personalità di Internet casuali hanno salutato ChatGPT come la caduta di Ricerca Google, Microsoft ha realizzato un grande investimento grasso nella tecnologia e ha iniziato a integrarlo con Bing. I nostri amici a Google ha risposto con Bard, un chatbot AI personalizzato che si basa sullo sperimentale Modello LaMDA.
Google Microsoft e Google sono in corsa per vedere chi può portare questa tecnologia fuori dalla porta. Non solo daranno autorità a strumenti come ChatGPT, ma presenteranno questa IA non lucidata agli utenti che non ne sanno niente di meglio. È irresponsabile, amplificherà la disinformazione e incoraggerà le persone a mettere da parte la ricerca.
Per non parlare del fatto che questa tecnologia costringerà Microsoft e Google a diventare gli arbitri di ciò che è giusto o sbagliato. Se intendiamo trattare l’IA conversazionale come un’autorità, deve essere costantemente adattata e moderata per eliminare le imprecisioni. Chi prenderà quelle decisioni? E come reagiranno le persone quando le loro convinzioni o la loro “conoscenza” non sono rappresentate dall’intelligenza artificiale?
Dovrei anche notare che questi modelli conversazionali sono costruiti su esistente dati. Quando fai una domanda a ChatGPT, potrebbe rispondere utilizzando le informazioni di un libro o di un articolo, ad esempio. E quando CNET ha provato a testare uno scrittore di intelligenza artificiale, ha pubblicato una tonnellata di contenuti plagiati. I dati che guidano questa tecnologia sono un incubo sul copyright e la regolamentazione sembra una forte possibilità. (In tal caso, la regolamentazione potrebbe aumentare notevolmente il costo dello sviluppo dell’IA conversazionale. La concessione in licenza di tutti i contenuti necessari per costruire questa tecnologia costerebbe una fortuna.)
I primi scorci del Bard di Google mostrano che potrebbe essere profondamente integrato nella Ricerca, presentando le informazioni all’interno del normale motore di ricerca e all’interno di una finestra di chat dedicata. Lo stesso vale per l’IA conversazionale di Bing. Questi strumenti sono ora in fase di test e messa a punto, quindi ci aspettiamo di saperne di più nelle prossime settimane.
A proposito, Google E Microsoft entrambi hanno pubblicato una serie di principi di intelligenza artificiale. Potrebbe valere la pena leggere questi principi per vedere come le aziende si stanno avvicinando allo sviluppo dell’IA.