研究发现:AI在处理动态面部表情上存在显著差异

释放双眼,带上耳机,听听看~!
最新研究发现,人工智能在处理动态面部表情时存在显著差异,需要基于真实生活刺激的算法来模拟人脑对面部处理的方式。

划重点: 研究发现,人工智能(AI)的面部识别技术虽然能够模仿人类表现,甚至在某些方面超越,但在处理动态面部表情时,与人脑处理方式存在显著差异。 深度卷积神经网络(DCNNs)在识别静态图像方面表现出色,但由于当前设计主要用于静态图像识别,对于动态表情的处理相对欠缺。 为了更准确地模拟人脑对面部处理的方式,AI开发者需要构建基于真实生活刺激(如动态视频中的面部)的算法,而不是仅仅依赖静态图像。 人工智能在面部识别技术方面的发展表现出色,甚至有时超越了人类的表现。然而,一项最新研究发现,尽管AI在静态图像上的识别能力强大,但在处理动态面部表情时,其表现与人脑存在显著差异。 图源备注:图片由AI生成,图片授权服务商Midjourney 研究团队来自达特茅斯学院与博洛尼亚大学,他们针对深度卷积神经网络(DCNNs)进行了研究,这是人工智能中用于识别视觉图像的关键组件。这种网络的命名和结构都灵感来自人脑的视觉通路组织,具有逐层增加复杂性的多层结构。 然而,问题出现在人脑处理动态面部表情时。当前的AI设计主要用于静态图像的识别,而这项研究发现,AI无法有效模拟人脑在处理变化表情的情境中的工作方式。 研究中,团队通过使用不同族裔、年龄和表情的面部视频进行测试,与以往主要使用静态图像不同。结果显示,尽管人脑对面部的神经表征在参与者之间高度相似,而AI对面部的人工神经编码在不同DCNNs之间也高度相似,但是与DCNNs的脑活动相关性较弱。这表明,目前的人工神经网络仅能捕捉到人脑信息的一小部分,尤其是在处理动态面部时。 研究的共同主笔之一Jiahui Guo士表示:”科学家们试图将深度神经网络作为了解大脑的工具,但我们的研究结果表明,这个工具目前与大脑相去甚远。” 该研究强调,人脑在面部处理中不仅仅是确定一个面孔与另一个面孔是否不同,还包括推断其他信息,如思维状态、友好度和信任度。而当前的DCNNs仅被设计用于识别面孔,无法涵盖这些复杂的认知过程。 詹姆斯·哈克斯比教授指出:”当你看着一个面孔时,你获得了关于那个人的很多信息,包括他们可能在思考什么、感觉如何,以及他们试图传达什么样的印象。” 相比之下,AI只能确定一个面孔是否与另一个不同,无法进行更深层次的认知处理。 研究建议,为了使AI网络更准确地反映人脑处理面部信息的方式,开发者需要构建基于真实生活刺激的算法,而不仅仅是依赖静态图像。这意味着在设计人工智能系统时,需要考虑动态面部表情的复杂性,以更好地模拟人类认知和社交互动的过程。

本网站的内容主要来自互联网上的各种资源,仅供参考和信息分享之用,不代表本网站拥有相关版权或知识产权。如您认为内容侵犯您的权益,请联系我们,我们将尽快采取行动,包括删除或更正。
AI资讯

自动驾驶中BEV和SLAM的通俗易懂解释

2023-11-14 14:34:21

AI资讯

AI Pin:挑战智能手机的未来硬件

2023-11-14 14:43:03

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索