NVIDIA发布新型神经网络架构nGPT,训练速度提升20倍

释放双眼,带上耳机,听听看~!
NVIDIA最新研究提出的nGPT神经网络架构彻底改变AI未来,基于超球面表示学习,训练速度提升20倍,保持模型精度。归一化处理使输入token在超球面表面上移动,通过位移贡献输出预测,加速效果显著。

快科技10月20日消息,据媒体报道,NVIDIA的最新研究可能彻底改变AI的未来,其研究团队提出了一种名为归一化Transformer(nGPT)的新型神经网络架构。

这一架构在超球面(hypersphere)上进行表示学习,能够显著提升大型语言模型(LLM)的训练速度,最高可达20倍,同时保持了模型的精度。

nGPT架构的核心在于将所有向量,包括嵌入、多层感知机(MLP)、注意力矩阵和隐藏状态,归一化为单位范数。

这种归一化处理使得输入的token在超球面表面上移动,每一层模型都通过位移来贡献最终的输出预测。

实验结果表明,nGPT在训练时所需的步骤比标准Transformer模型减少了4到20倍,具体加速效果取决于序列长度。

例如,在1k上下文中,训练速度提高了4倍;在4k上下文中,提高了10倍;而在8k上下文中,更是提高了20倍。

研究人员指出,nGPT的优化路径从超球面上的点开始,通过位移来贡献最终的输出预测,其中位移量由MLP和注意力模块定义。

这种方法不仅提高了训练速度,还增强了模型的稳定性。

本网站的内容主要来自互联网上的各种资源,仅供参考和信息分享之用,不代表本网站拥有相关版权或知识产权。如您认为内容侵犯您的权益,请联系我们,我们将尽快采取行动,包括删除或更正。
AI资讯

国仪量子发布全球首个AI电子顺磁共振波谱仪

2024-10-20 18:51:03

AI资讯

一加发布50W磁吸无线充电器,解决手机发热问题

2024-10-20 19:23:14

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索