首页 > 新闻 > 科技 > 正文

DeepSeek训练仍基于英伟达CUDA生态 国产AI芯片宣布适配

2025-02-15 18:47:51
字体:
来源:转载
供稿:网友
在DeepSeek极低成本的推动下,开源模型和闭源模型之间的差距显著缩小,掀起了一轮国产AI芯片厂商竞相适配的风潮。自2月1日以来,多家国产头部AI芯片厂商宣布与DeepSeek旗下不同模型展开适配工作,据统计,目前至少有20家国内厂商参与其中。

AI芯片市场主要包括CPU、GPU、ASIC、FPGA等不同类型芯片。随着AI对大规模并行计算的需求增加,GPU芯片需求迅速攀升,导致英伟达业绩和股价双升。然而,DeepSeek的出现意味着AI推理侧成本正在快速下降,这将带动更广泛的应用市场涌现。这意味着不仅GPU芯片,在AI推理领域具有细分优势的ASIC、FPGA等芯片也将迎来丰富的机遇。多位业内人士认为,这有望推动国内厂商在推理侧与英伟达竞争市场份额。

尽管此前DeepSeek多采用英伟达GPU系列芯片,更多适配CUDA生态,但国产芯片如何在这种条件下抢占更多份额,以及是否会挤压英伟达的市场,成为业内的关注焦点。

伴随DeepSeek席卷全球,国内芯片厂商也纷纷行动。例如,2月2日,Gitee AI宣布上线多个尺寸的DeepSeek R1模型,并部署在国产沐曦曦云GPU上。2月5日,Gitee AI再次宣布,DeepSeek-V3全精度满血版可以在沐曦训推一体GPU上成功运行。天数智芯也在短时间内完成了与DeepSeek R1的适配工作,并上线了多款不同参数模型服务。燧原科技则完成对DeepSeek全量模型的适配。

这些厂商尤其重视“适配速度”,率先适配的是参数量较小的蒸馏模型,而MoE基础模型的适配时间明显更长。这表明国内AI芯片厂商试图展示其在AI生态适配方面的速度和实力。

英伟达GPU芯片在全球范围内广泛应用,形成了硬件GPU芯片、软件CUDA生态和NV Link连接三大护城河。国产芯片要在GPU领域加速发展,生态建设至关重要。目前,一些国产芯片选择自主架构,从垂直应用领域构建生态;另一些则兼容CUDA生态来推动发展。

海光信息指出,因其DCU芯片采用了GPGPU通用加速计算架构,DeepSeek模型可以直接在其DCU上运行,无需大量适配工作,主要任务是进行精度验证和性能优化。

众多国产AI芯片厂商与DeepSeek的快速适配是中国芯片国际化突击的第一步。通过合作,中国芯片厂商加速了深度学习框架和分布式训练适配,推动了“国产算力+国产大模型”闭环生态的发展。DeepSeek通过模型蒸馏技术和高效的算法优化,降低了模型对硬件算力的要求,使得国产AI芯片在推理端可以快速实现商业化。不过,训练端国产芯片与英伟达仍存在差距,且中国AI芯片生态碎片化问题需要进一步解决。

近期,包括OpenAI、豆包、百度等巨头也证实了推理侧成本正在快速下降。行业关注点从训练环节转向推理环节。海外云服务厂商如谷歌、Meta、亚马逊等也在财报中提到了自研推理芯片的进展。预期在DeepSeek驱动下,CSP业者将更积极投入较低成本的自有ASIC方案,并从AI训练重心转向AI推理。

业内普遍认为,ASIC芯片和GPU芯片将在未来市场中共存。云端业者除了采用英伟达GPU外,还在积极研发自身ASIC芯片,以降低对英伟达芯片的依赖度和支出成本。尽管ASIC在某些特定推理场景中会蚕食GPU的市场份额,但不会导致GPU需求总体下降。两者市场需求可能互为补充,而非简单替代。
发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表