标签:DeepSeekMoE

DeepSeek开源模型‌ 首个国产开源MoE大模型来了!性能媲美Llama 2-7B,计算量降低60%

克雷西 发自 凹非寺量子位 | 公众号 QbitAI开源MoE模型,终于迎来首位国产选手!它的表现完全不输给密集的Llama 2-7B模型,计算量却仅有40%。