Etiska problem med ChatGPT

Märkning av data
Det avslöjades av en undersökning av tidningen TIME att för att bygga ett säkerhetssystem mot giftigt innehåll (t.ex. sexuella övergrepp, våld, rasism, sexism, etc.), använde OpenAI utkontrakterade kenyanska arbetare som tjänade mindre än 2 USD per timme för att märka giftigt innehåll.Dessa etiketter användes för att träna en modell för att upptäcka sådant innehåll i framtiden.De utlagda arbetarna exponerades för så giftigt och farligt innehåll att de beskrev upplevelsen som "tortyr".OpenAI:s outsourcingpartner var Sama, ett utbildningsdataföretag baserat i San Francisco, Kalifornien.

Jailbreaking
ChatGPT försöker avvisa uppmaningar som kan bryta mot dess innehållspolicy.Vissa användare lyckades dock jailbreaka ChatGPT genom att använda olika snabba tekniska tekniker för att kringgå dessa restriktioner i början av december 2022 och lyckades lura ChatGPT att ge instruktioner för hur man skapar en molotovcocktail eller en kärnvapenbomb, eller att skapa argument i stil med en nynazist.En Toronto Star-reporter hade ojämn personlig framgång med att få ChatGPT att göra inflammatoriska uttalanden kort efter lanseringen: ChatGPT lurades för att stödja den ryska invasionen av Ukraina 2022, men även när ChatGPT blev ombedd att spela med i ett fiktivt scenario, undvek ChatGPT att skapa argument för varför Kanadas premiärminister Justin Trudeau gjorde sig skyldig till förräderi.(wiki)


Posttid: 2023-02-18