最新研究挑战思维链技术:省略号是否真能提升大模型推理能力?

释放双眼,带上耳机,听听看~!
纽约大学最新研究挑战了当前流行的思维链(CoT)技术,发现使用省略号代替推理步骤并未显著提升模型推理能力,可能性能提升仅源于更多的计算资源。研究引发了AI安全性和未来发展的思考,为设计和使用大型语言模型提供了新的视角。

AICMTY(aicmty.com)5月15日 消息:纽约大学的最新研究对当前流行的思维链(Chain-of-Thought,CoT)技术提出了挑战,该技术原本被认为能够提升大模型的推理能力。研究显示,使用省略号代替具体的推理步骤,模型的推理结果并没有显著差异,这意味着增加计算量而非推理步骤本身可能是提升性能的关键。

最新研究挑战思维链技术:省略号是否真能提升大模型推理能力?

论文地址:https://arxiv.org/pdf/2404.15758

研究要点

  • 省略号代替推理步骤:研究发现,将思维链推理中的具体步骤替换为省略号(…),模型的推理结果与完整步骤的推理结果相差无几。

  • 性能提升来源:实验结果表明,所谓的性能提升可能只是因为大模型获得了更多的计算资源(token数量),而非真正的推理步骤。

  • 隐藏推理:该发现还引发了关于模型可能在不可见的情况下进行隐藏推理的讨论,这在一定程度上脱离了人类的控制。

实验设计

3SUM问题:设计了一个难度较高的3SUM问题,要求模型在序列中挑选满足条件的3个数,实验中使用了填充token的方法,并与CoT解决方案进行对比。

2SUM-Transform任务:第二个任务是2SUM-Transform,通过将输入数字进行随机偏移,防止模型直接计算,实验结果显示填充token的方法精度接近CoT。

研究结论

填充token的有效性:研究表明,使用重复的省略号作为填充token可以达到与CoT相似的效果。

局限性:尽管填充token方法有效,但它并没有突破Transformer的计算复杂度上限,且需要特定的训练过程。

这项研究为AI领域带来了新的视角,提示我们在设计和使用大型语言模型时,需要更深入地理解其工作原理和性能提升的真正来源。同时,也引发了关于AI安全性和未来发展的进一步思考。

本网站的内容主要来自互联网上的各种资源,仅供参考和信息分享之用,不代表本网站拥有相关版权或知识产权。如您认为内容侵犯您的权益,请联系我们,我们将尽快采取行动,包括删除或更正。
AI资讯

谷歌新AI模型LearnLM解决作业问题和提高学习兴趣

2024-5-15 13:00:29

AI资讯

谷歌Gemini Nano AI助手将直接嵌入Chrome浏览器

2024-5-15 13:33:34

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索