谷歌研究院发布BIG-Bench Mistake数据集评估语言模型纠错能力

释放双眼,带上耳机,听听看~!
谷歌研究院使用BIG-Bench Mistake数据集对语言模型的纠错能力进行评估,发现目前大语言模型的自我纠错能力有限,提出使用小型模型监督大型模型改善效率和降低成本。

AICMTY.com

IT之家 1 月 15 日消息,谷歌研究院日前使用自家 BIG-Bench 基准测试建立了一项“BIG-Bench Mistake”数据集,并利用相关数据集对市面上流行的语言模型“出错概率”及“纠错能力”进行了一系列评估研究。

谷歌研究院发布BIG-Bench Mistake数据集评估语言模型纠错能力

谷歌研究人员表示,由于过去没有能够评估大语言模型“出错概率”及“自我纠错能力”的数据集,因此他们创建了一项名为“BIG-Bench Mistake”的专用基准数据集用于评估测试。

据悉,研究人员首先使用 PaLM 语言模型在自家 BIG-Bench 基准测试任务中运行了 5 项任务,之后将生成的“思维链(Chain-of-Thought)”轨迹修改加入“逻辑错误”部分,之后重新丢给模型判断思维链轨迹中哪些地方存在错误。

为了提升数据集准确程度,谷歌研究人员反复进行上述过程,最终形成了一项内含“255 项逻辑错误”的“BIG-Bench Mistake”专用基准数据集。

研究人员提到,由于“BIG-Bench Mistake”数据集中的逻辑错误较为“简单明确”,因此可以作为一个良好的测试标准,可协助语言模型先从简单的逻辑错误开始练习,逐步提升辨识错误的能力。

研究人员利用该数据集对市面上模型进行测试,发现虽然绝大多数语言模型可以识别在推理过程中出现的逻辑错误并进行自我修正,但这个过程“并不够理想”,通常需要人工干预来纠正模型输出的内容。

谷歌研究院发布BIG-Bench Mistake数据集评估语言模型纠错能力

▲ 图源 谷歌研究院新闻稿

IT之家从报告中发现,谷歌声称“目前最先进的大语言模型”自我纠错能力也相对有限,在相关测试结果中成绩发挥最好的模型,也仅仅找出了 52.9% 的逻辑错误

谷歌研究院发布BIG-Bench Mistake数据集评估语言模型纠错能力

谷歌研究人员同时声称,这一 BIG-Bench Mistake 数据集有利于改善模型自我纠错能力,经过相关测试任务微调后的模型,“即便是小型模型表现也通常比零样本提示的大模型更好”。

据此,谷歌认为在模型纠错方面,可以使用专有小型模型“监督”大型模型,相对于让大语言模型学会“纠正自我错误”,部署专用于监督大模型的小型专用模型有利于改善效率、降低相关 AI 部署成本,并更便于微调

本网站的内容主要来自互联网上的各种资源,仅供参考和信息分享之用,不代表本网站拥有相关版权或知识产权。如您认为内容侵犯您的权益,请联系我们,我们将尽快采取行动,包括删除或更正。
AI资讯

海天味业新成立子公司天致(广东)工程技术有限公司,市场猜测是否进军AI?

2024-1-15 16:01:06

AI资讯

ChatGPT定制化训练指南:克服固有限制,打造量身定制人工智能助手

2024-1-15 16:43:22

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索