UCLA推出具身智能大模型MultiPLY,开创AI多感官能力新方向

释放双眼,带上耳机,听听看~!
最新研究表明,UCLA等机构的研究人员推出了具身智能大模型MultiPLY,具备多模态感知能力,开创了AI与3D环境全面交互的新方向。该模型在多任务实验中表现出色,刷新了当前技术水平,为实现AGI提供了新的方向。研究人员提出了多感官全景生成管线,展现出强大的多模态能力,为构建更全面、具备多感官能力的大模型提供了新思路。

AICMTY(aicmty.com)1月22日 消息:近日,UCLA等机构的研究人员推出了具身智能大模型MultiPLY,该模型不仅具备多模态感知能力,包括触觉、视觉、听觉等,使得AI能够更全面地与3D环境进行交互。这标志着具备多感官能力的大模型成为未来AI发展的重要方向。

UCLA推出具身智能大模型MultiPLY,开创AI多感官能力新方向

MultiPLY在多任务实验中表现出色,包括对象检索、工具使用、多感官标注和任务分解等,刷新了当前技术水平。为了训练这一新模型,研究人员创建了Multisensory-Universe数据集,包含50万条多感官数据,涵盖了多种任务类型。尽管面临挑战,如当前缺少训练多感官交互的数据和正确表示3D场景的多感官信息,但MultiPLY的出现为实现AGI提供了新的方向。

UCLA推出具身智能大模型MultiPLY,开创AI多感官能力新方向

在模型训练阶段,研究人员引入了新物体,并通过触觉、环境声音、撞击声音、温度等多种传感器数据获取方式,让模型学会感知物体的多模态信息。

为此,研究人员提出了多感官全景生成管线,通过不同传感器收集触觉、声音、温度等信息。整个训练过程中,MultiPLY通过智能体与3D环境交互,生成多感官观测值,并在推理过程中不断生成动作token,展现出强大的多模态能力。这一研究的出现,为构建更全面、具备多感官能力的大模型提供了新思路。

本网站的内容主要来自互联网上的各种资源,仅供参考和信息分享之用,不代表本网站拥有相关版权或知识产权。如您认为内容侵犯您的权益,请联系我们,我们将尽快采取行动,包括删除或更正。
AI资讯

未来应用的具身智能大模型MultiPLY

2024-1-22 14:48:21

AI资讯

OpenAI CEO奥特曼透露GPT-5的关键信息,AI技术发展趋势和前首席科学家近况揭秘

2024-1-22 14:57:02

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索