元象发布XVERSE-MoE-A4.2B大模型,开源免费商用,超越13B模型效果

释放双眼,带上耳机,听听看~!
元象发布了XVERSE-MoE-A4.2B大模型,采用混合专家模型架构,激活参数为4.2B,效果媲美13B模型。该模型全开源,免费商用,具有极致压缩和超凡性能两大优势,可推动低成本部署。与多个腾讯产品深度合作,为文化、娱乐、旅游、金融领域提供创新用户体验。

AICMTY(aicmty.com)4月3日 消息:元象发布了 XVERSE-MoE-A4.2B 大模型,采用混合专家模型架构,激活参数为4.2B,效果媲美13B 模型。该模型全开源,免费商用,可用于海量中小企业、研究者和开发者,推动低成本部署。

该模型具有极致压缩和超凡性能两大优势,采用稀疏激活技术,效果超越多个业界顶流模型,并接近超大模型。元象 MoE 技术自研创新,研发高效融合算子、细粒度专家设计、负载均衡损失项等,最终采用实验4对应的架构设置。

元象发布XVERSE-MoE-A4.2B大模型,开源免费商用,超越13B模型效果

在商业应用上,元象大模型已与多个腾讯产品进行深度合作,为文化、娱乐、旅游、金融领域提供创新用户体验

  • Hugging Face:https://huggingface.co/xverse/XVERSE-MoE-A4.2B

  • ModelScope魔搭:https://modelscope.cn/models/xverse/XVERSE-MoE-A4.2B

  • Github:https://github.com/xverse-ai/XVERSE-MoE-A4.2B

本网站的内容主要来自互联网上的各种资源,仅供参考和信息分享之用,不代表本网站拥有相关版权或知识产权。如您认为内容侵犯您的权益,请联系我们,我们将尽快采取行动,包括删除或更正。
AI资讯

推荐系统发展瓶颈与未来挑战:留存提升、用户增长、内容生态

2024-4-3 16:23:10

AI资讯

人工智能和机器学习的区别及特征

2024-4-3 17:10:20

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索