Preoccupazioni etiche di ChatGPT

Dati di etichettatura
È stato rivelato da un'indagine della rivista TIME che per costruire un sistema di sicurezza contro i contenuti tossici (ad esempio abusi sessuali, violenza, razzismo, sessismo, ecc.), OpenAI ha utilizzato lavoratori kenioti in outsourcing che guadagnano meno di $ 2 l'ora per etichettare i contenuti tossici.Queste etichette sono state utilizzate per addestrare un modello per rilevare tali contenuti in futuro.I lavoratori in outsourcing sono stati esposti a contenuti così tossici e pericolosi che hanno descritto l'esperienza come "tortura".Il partner di outsourcing di OpenAI era Sama, una società di dati di formazione con sede a San Francisco, in California.

Jailbreaking
ChatGPT tenta di rifiutare le richieste che potrebbero violare la sua politica sui contenuti.Tuttavia, alcuni utenti sono riusciti a eseguire il jailbreak di ChatGPT utilizzando varie tecniche di ingegneria rapida per aggirare queste restrizioni all'inizio di dicembre 2022 e con successo hanno indotto ChatGPT a dare istruzioni su come creare una molotov o una bomba nucleare, o a generare discussioni nello stile di un neonazista.Un giornalista del Toronto Star ha avuto un successo personale irregolare nel convincere ChatGPT a rilasciare dichiarazioni infiammatorie poco dopo il lancio: ChatGPT è stato ingannato per sostenere l'invasione russa dell'Ucraina nel 2022, ma anche quando gli è stato chiesto di giocare con uno scenario immaginario, ChatGPT si è rifiutato di generare argomenti sul perché il primo ministro canadese Justin Trudeau fosse colpevole di tradimento.(wiki)


Orario di pubblicazione: 18 febbraio 2023