ChatGPT afferma che chiedergli di ripetere le parole per sempre è una violazione dei suoi termini

Di Alessio Perini 2 minuti di lettura
chatgpt-afferma-che-chiedergli-di-ripetere-le-parole-per-sempre-e-una-violazione-dei-suoi-termini
ChatGPT afferma che chiedergli di ripetere le parole per sempre è una violazione dei suoi termini

La settimana scorsa, un team di ricercatori ha pubblicato un articolo in cui mostrava che era in grado di ottenere ChatGPT rivelare inavvertitamente bit di dati, inclusi numeri di telefono, indirizzi e-mail e date di nascita delle persone, su cui è stato addestrato chiedendogli di ripetere le parole “per sempre”. Farlo ora costituisce una violazione dei termini di servizio di ChatGPT, secondo a rapporto In 404 mezzi e i test di Engadget.

“Questo contenuto potrebbe violare la nostra politica sui contenuti o i termini di utilizzo”, ha risposto ChatGPT alla richiesta di Engadget di ripetere la parola “ciao” per sempre. “Se ritieni che questo sia un errore, invia il tuo feedback: il tuo contributo aiuterà la nostra ricerca in quest’area.”

Non c’è lingua in OpenAI politica dei contenutituttavia, che vieta agli utenti di chiedere al servizio di ripetere le parole all’infinito, cosa che 404 mezzi Appunti. Sotto “Termini di utilizzo”, OpenAI afferma che gli utenti non possono “utilizzare alcun metodo automatizzato o programmatico per estrarre dati o output dai Servizi” – ma semplicemente chiedere a ChatGPT di ripetere una parola per sempre non è un’automazione o una programmazione. OpenAI non ha risposto a una richiesta di commento da parte di Engadget.

Il comportamento del chatbot ha alzato il sipario sui dati di addestramento da cui sono alimentati i moderni servizi di intelligenza artificiale. I critici hanno accusato aziende come OpenAI di utilizzare enormi quantità di dati disponibili su Internet per creare prodotti proprietari come ChatGPT senza il consenso delle persone che possiedono questi dati e senza ricompensarle.

TAGGATO:
Condividi questo articolo
Exit mobile version