您现在的位置是:首页 > 要闻 > 正文

当前deep seek v2

发布时间:2025-02-07 17:47:44来源:

导读 DeepSeek V2是一个强大的混合专家(MoE)语言模型,具有2360亿个总参数,每个token激活210亿个参数。其特点在于经济高效的训练和推理,与D...

DeepSeek V2是一个强大的混合专家(MoE)语言模型,具有2360亿个总参数,每个token激活210亿个参数。

其特点在于经济高效的训练和推理,与DeepSeek 67B相比,不仅性能更强,还节省了42.5%的训练成本,并将最大生成吞吐量提升至5.76倍。

DeepSeek V2的性能达到GPT-4级别,但开源且可免费商用,API价格仅为GPT-4-Turbo的百分之一。

此外,它采用了创新的MLA架构,大幅减少了计算量和推理显存。

DeepSeek V2的中文综合能力超越一众开源模型,在多个领域展现出强大的应用潜力。

标签:

上一篇
下一篇