专栏

当前位置/ 首页/ 要闻频道/专栏/ 正文

阿里通义千问开源首个MoE模型

导读 据阿里通义千问消息,3月29日,通义千问团队开源首个MoE模型,名为Qwen5-MoE-A7B。它仅有27亿个激活参数,但性能可与当前公认最先进的7...

据阿里通义千问消息,3月29日,通义千问团队开源首个MoE模型,名为Qwen5-MoE-A7B。它仅有27亿个激活参数,但性能可与当前公认最先进的70亿参数模型(Mistral7B、Qwen5-7B等)相媲美。

文章转载自:界面新闻网 非本站原创

免责声明:本文由用户上传,如有侵权请联系删除!