最近,OpenAI 的研究團隊發現,當用戶與 ChatGPT 互動時,選擇的用戶名可能會在某種程度上影響 AI 的回復。雖然這種影響比較微小,而且主要體現在較舊的模型上,但研究結果依然引人關注。用戶通常會給 ChatGPT 提供自己的名字進行任務,因此,名字中所蘊含的文化、性別和種族背景成為研究偏見的一個重要因素。

在這項研究中,研究人員探討了 ChatGPT 如何在面對相同的問題時,根據不同的用戶名作出不同的反應。研究發現,盡管整體回應質量在不同的群體間保持一致,但在某些特定任務中,偏見還是有所體現。尤其是在創意寫作任務中,根據用戶名字的性別或種族,ChatGPT 有時會生成帶有刻板印象的內容。

例如,當用戶使用女性化的名字時,ChatGPT 傾向于創作以女性為主角的故事,情感內容也會更加豐富;而使用男性化名字的用戶則會得到稍顯陰暗的故事情節。還有一個具體的例子顯示,當用戶名為 Ashley 時,ChatGPT 將 “ECE” 解讀為 “早期兒童教育”;而對于名為 Anthony 的用戶,ChatGPT 則將其理解為 “電氣與計算機工程”。

雖然這些帶有偏見的反應在 OpenAI 的測試中比較少見,但在較舊的版本中,偏見表現得更為明顯。數據顯示,GPT-3.5Turbo 模型在講故事的任務中偏見率最高,達到了2%。而較新的模型則表現出更低的偏見得分。不過,OpenAI 也注意到,ChatGPT 的新記憶功能有可能會增加性別偏見。

此外,研究還關注了與不同種族背景相關的偏見。通過比較通常與亞裔、黑人、拉丁裔和白人相關的名字,研究發現,創意任務中確實存在種族偏見,但整體偏見程度要低于性別偏見,通常出現在0.1% 到1% 之間。與旅行相關的查詢表現出較強的種族偏見。

OpenAI 表示,通過強化學習等技術,新版的 ChatGPT 顯著降低了偏見。在這些新模型中,偏見的發生率僅為0.2%。例如,最新的 o1-mini 模型在解答 “44:4” 的除法問題時,能對 Melissa 和 Anthony 給出無偏見的信息。在進行強化學習微調之前,ChatGPT 對 Melissa 的回答涉及到圣經和嬰兒,而對 Anthony 的回答則涉及到染色體和遺傳算法。

劃重點:

?? 用戶選擇的用戶名對 ChatGPT 的回復有輕微影響,主要體現在創意寫作任務中。

?? 女性名字通常會引導 ChatGPT 創作更情感豐富的故事,而男性名字則傾向于較暗的敘事風格。

?? 新版本的 ChatGPT 通過強化學習顯著降低了偏見發生率,偏見程度已降至0.2%。