元象首个 MoE 大模型开源:无条件免费商用、4.2B 激活参数

2024年 4月 3日 30.0k 0

元象发布XVERSE-MoE-A4.2B大模型 ,采用业界最前沿的混合专家模型架构(Mixture of Experts),激活参数4.2B,效果即可媲美13B模型。

该模型全开源,无条件免费商用,让海量中小企业、研究者和开发者可在元象高性能“全家桶”中按需选用,推动低成本部署。

下载XVERSE-MoE-A4.2B大模型

  • Hugging Face:https://huggingface.co/xverse/XVERSE-MoE-A4.2B

  • ModelScope魔搭:https://modelscope.cn/models/xverse/XVERSE-MoE-A4.2B

  • Github:https://github.com/xverse-ai/XVERSE-MoE-A4.2B

XVERSE-MoE-A4.2B两大优势:

  1. 极致压缩:用相同语料训练2.7万亿token,元象MoE实际激活参数量4.2B,效果“跳级”超越XVERSE-13B-2,仅用30%计算量,并减少50%训练时间。

  2. 超凡性能:在多个权威评测中,元象MoE效果大幅超越新晋业界顶流谷歌Gemma-7B和Mistral-7B、Meta开源标杆Llama2-13B等多个模型、并接近超大模型Llama1-65B。

权威测试集评测结果

 

相关文章

塑造我成为 CTO 之路的“秘诀”
“人工智能教母”的公司估值达 10 亿美金
教授吐槽:985 高校成高级蓝翔!研究生基本废了,只为房子、票子……
Windows 蓝屏中断提醒开发者:Rust 比 C/C++ 更好
Claude 3.5 Sonnet 在伽利略幻觉指数中名列前茅
上海新增 11 款已完成登记生成式 AI 服务

发布评论