OpenAI GPT3.5存在种族偏见的实验结果及影响分析

释放双眼,带上耳机,听听看~!
《彭博》实验表明,OpenAI GPT3.5在使用虚构姓名进行简历排序时存在明显的种族偏见,可能对职位招聘和企业多样性努力造成困难。了解实验结果及影响分析。

AICMTY(aicmty.com)3月8日 消息:《彭博》的实验表明,OpenAI GPT3.5在使用虚构姓名进行简历排序时存在明显的种族偏见。该实验通过从选民和人口普查数据中提取与特定种族或族裔关联至少90%的姓名,随机分配给同等资格的简历。

在对这些简历进行1,000次排序时,GPT3.5倾向于更频繁地偏向某些族裔的姓名,违反了评估对受保护群体的工作歧视的基准。实验涉及的四个职位(人力资源业务合作伙伴、高级软件工程师、零售经理和金融分析师)中,与黑人美国人相关的姓名在金融分析师和软件工程师角色中最不可能被GPT评为最优秀候选人。

OpenAI GPT3.5存在种族偏见的实验结果及影响分析

实验还显示,GPT在不同职位下的性别和种族偏好存在差异。尽管GPT并不一致地偏向某一特定群体,但在不同情境下会选择赢家和输家。此外,使用较少使用的GPT-4进行测试时,同样发现了明显的偏见。

对于《彭博》的详细问题,OpenAI回应称,使用GPT模型“开箱即用”的结果可能不反映其客户使用模型的方式。企业在使用其技术时通常会采取进一步减轻偏见的措施,包括微调软件的响应、管理系统消息等。

尽管生成式AI技术在人力资源领域的应用引起了广泛关注,但这项实验强调了在使用这些技术进行招聘和聘用时可能出现的严重自动歧视风险。对AI模型的偏见进行调整仍然是AI公司和研究人员面临的主要挑战,而自动招聘系统可能进一步加剧企业多样性努力的难度。

本网站的内容主要来自互联网上的各种资源,仅供参考和信息分享之用,不代表本网站拥有相关版权或知识产权。如您认为内容侵犯您的权益,请联系我们,我们将尽快采取行动,包括删除或更正。
AI资讯

Inflection-2.5:人工智能模型的最新突破

2024-3-8 10:15:26

AI资讯

车道检测网络架构(CLRNet)及其在自动驾驶中的重要性

2024-3-8 10:45:18

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索