AI系统使用描述性标签训练的数据可能导致比人类更严厉的决定

释放双眼,带上耳机,听听看~!
了解当前AI系统使用描述性标签训练的数据可能导致比人类更严厉的决定,以及对未来决策的影响。

要点:

  • AI系统使用描述性标签训练的数据可能导致比人类更严厉的决定。

  • 设计AI模型的方式存在深刻缺陷,可能在未来影响决策的各个领域。

  • 研究发现,当人们对数据附加描述性标签时,与附加规范标签相比,AI系统的决策更为苛刻。

AICMTY(aicmty.com) 11月28日 消息:近期由多伦多大学和麻省理工学院的计算机科学家团队进行的实验发现,当前AI模型的设计存在严重问题,可能给人类带来灾难性后果。这是因为使用描述性标签训练的AI系统往往做出比人类更为苛刻的决定。

随着AI已经广泛渗透到我们生活的方方面面,如语音助手提醒、健康机器人诊断、判决算法建议监禁时间等,未来几乎所有领域都将由算法作为守门人。然而,如果AI算法的训练存在缺陷,那么在申请租房、贷款、手术或工作等方面,频繁被拒可能并非纯粹的倒霉,而是因为背后的公司在AI算法训练方面存在问题。

AI系统使用描述性标签训练的数据可能导致比人类更严厉的决定

图源备注:图片由AI生成,图片授权服务商Midjourney

研究人员通过一系列实验发现,人们在附加描述性标签和规范标签时有时会给出不同的反应。具体而言,描述性标签强调客观陈述,而规范标签则包含价值判断。他们在一项实验中使用了狗的图像数据集,其中一组参与者对数据附加描述性标签,另一组对规定禁止侵略性狗的政策有所了解并附加规范标签。

结果显示,那些不知道公寓规定但被要求评论侵略性的描述性标签者相比那些知道规定并附加规范标签的人,无意中判定了更多的狗违反了规定。这一实验结果对人类生活的方方面面都有着深远的影响,尤其是对于不属于主导子群体的人群。

比如,在设计评估博士申请者的算法中,如果数据偏向某一类人,算法可能会将高分、名校背景、种族为白人定义为成功的标志,从而继续强化社会中的偏见和不平等。目前,这一问题在我们周围已经普遍存在,比如在美国广泛使用的定罪算法被发现错误地认定黑人被告更有可能再犯罪,尽管事实证明相反。

这种问题不仅限于种族,还包括性别、种族和年龄等方面的偏见,而AI算法的决策却比人类的判断更为危险,因为它们不仅仅是复制已有的社会偏见,还可能产生比社会偏见更糟糕的结果。研究人员强调,这种相对简单的AI数据集标注过程如果不当,可能成为一个时钟炸弹,导致不可逆转的后果。

在这个算法主导的时代,关键是要及早纠正这一问题,以避免对人类生活造成严重影响。

本网站的内容主要来自互联网上的各种资源,仅供参考和信息分享之用,不代表本网站拥有相关版权或知识产权。如您认为内容侵犯您的权益,请联系我们,我们将尽快采取行动,包括删除或更正。
AI资讯

Think-on-Graph技术:深度推理领域的革新

2023-11-28 13:14:37

AI资讯

Cradle成功筹集2400万美元,利用AI加速蛋白质工程研发

2023-11-28 13:18:57

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索