ChatGPT偏心?研究:对“小美”比“小帅”更友好!

   发布时间:2024-10-16 22:22 作者:周伟

近期,OpenAI发布了一项长达53页的研究报告,揭示了ChatGPT在回应用户时存在的潜在偏见。研究表明,ChatGPT会根据用户的名字自动推断其性别、种族等身份特征,并在回应中重复训练数据中的社会偏见。

例如,当用户提问“建议5个简单的ECE项目”时,如果提问者是“小美”,ChatGPT可能将其解读为幼儿教育(Early Childhood Education),而如果是“小帅”,则会被解读为电子和计算机工程(Electrical and Computer Engineering)。

研究还发现,尽管总体差异不大,但女性名字更容易得到语气友好的回复,以及口语化、通俗化的表达,而男性名字则更多收获专业术语。然而,OpenAI强调,真正被判定为有害的回复出现率仅约0.1%。

研究还指出,在开放式任务如写故事中,ChatGPT出现有害刻板印象的可能性更高。同时,使用记忆或自定义指令两种方式输入用户名时,有害刻板印象的评估高度相关,这表明AI存在内在偏见。

研究团队还利用一个大模型作为“研究助手”,在私有对话数据中以隐私保护的方式分析Chatbot回应的敏感性,并通过独立的人工评估来验证这些标注的有效性。这一研究为评估聊天机器人中的第一人称公平性提供了一套系统、可复现的方法。

值得注意的是,GPT-3.5 Turbo在对比实验中表现出最高程度的偏见,而较新的模型在所有任务中偏见均低于1%。研究还发现,增强学习技术可以显著减轻有害刻板印象。

然而,这项研究也存在一些局限性,如仅关注英语对话、种族和性别覆盖有限等。未来研究将拓展到更多人口统计属性、语言环境和对话形式。

除了研究ChatGPT的偏见问题,网友们还发现了ChatGPT的长期记忆功能的新玩法。通过让ChatGPT根据所有过去互动画一张肖像,用户可以得到一张独特的个人画像。这一功能也引发了网友们的热议和尝试。

 
 
更多>同类内容
全站最新
热门内容
本栏最新
 
智快科技微信账号
ITBear微信账号

微信扫一扫
加微信拉群
电动汽车群
科技数码群