业界
DeepSeek接入潮汹涌:适配商忙坏,大厂或赔惨?
、百度、三大运营商这类拥有自研模型和AI应用的企业。
文档、QQ浏览器等业务侧产品先后接入DeepSeek-R1后,腾讯自研的AI助手“腾讯元宝”也正式接入DeepSeek-R1,支持用户切换使用混元大模型和DeepSeek-R1。
近乎全面拥抱DeepSeek的决心,阿里等公司对DeepSeek的接入主要体现在自己的主营业务侧产品,给自研的大模型产品保留了一部分空间。如阿里的1688、钉钉、阿里云相继接入DeepSeek,其旗下全能AI助手通义尚未表态。
不难发现,接入DeepSeek的企业,率先将DeepSeek应用在了AI能力运用场景较多的业务上。
“接入模型并非‘量’的比拼,需求方应该充分考虑模型与业务场景适配性。”值得买科技CTO王云峰在接受
此前,值得买科技自研了130亿参数消费大模型,也接入了一些主流模型,谈及接入DeepSeek的原因,王云峰解释称,值得买科技的自研模型在商品理解、价格预测等垂直领域能力出色,但AI技术的复杂性,决定了单一模型无法覆盖所有场景。例如做检索增强时,内部工具流程需AI合理调度,外部通用模型难以适配,此时自研模型就负责内部流程调度、用户意图理解等关键任务,而通用模型则用于站内生成这类通用场景。
从实际落地效果来看,DeepSeek-R1的问题处理和推理能力表现出色。王云峰告诉
网络安全公司知道创宇是DeepSeek更早期的受益者。
去年12月,知道创宇旗下的网络空间测绘引擎ZoomEye国际版同步上线了对DeepSeek的调用支持。知道创宇CSO周景平向
周景平在接受
“相比GPT,DeepSeek聚焦通过低成本高性能的技术路线,降低企业接入门槛,并通过开源策略促进技术普及和产业链协同,这为国内企业级应用的爆发提供了更大的可能性。”在周景平看来,DeepSeek-V3和DeepSeek-R1利好接入企业的意义在于性价比高。他说,DeepSeek开源较为彻底,同时发布了蒸馏模型的本地量化版,这使得企业进行本地化部署的性价比大幅度提升。
企业扎堆接入DeepSeek,也忙坏了位于大模型产业链中间层的适配厂商。
张迪向
张迪称,DeepSeek大火之前,大家对私有化部署仅仅停留在探讨产品功能的层面,而如今公司的咨询者,或许在焦虑的驱使下,合作目的更加明确,双方谈话主题大致锁定在为提需求、了解产品性能、给报价三个方面。
另一AI Infra厂商的创始人赵欣向
此前,有分析人士向
尤洋向
尤洋说,算力的主流提供方式一般有两种,一种是企业自有算力,比如有本地的一体机或者机房;另一种是公有云上的算力,企业可以按月租用。除此之外,有一些云厂商还提供MaaS的模式,也就是将DeepSeek模型部署到公有云上后,需求企业再调用DeepSeek API,按实际使用的token量付费,适合早期的轻量化探索需求。
企业接入DeepSeek的成本主要分硬件和部署成本两部分。
硬件成本方面,不同规格的硬件价格差异较大,相同规格不同规模的硬件价格也十分不同。“对于仅需要使用模型的企业来说,选择推理芯片会有效降低硬件成本;而对于有微调和训练要求的企业,可能在购买或租赁硬件时需要使用训练芯片。另外,对于并发数量或者输出速度要求较高的企业,需要选择有充足算力和显存的芯片,这类芯片的价格会偏高。”尤洋表示。
而部署成本的区别除了体现在不同规格芯片的部署难度上,还和企业的具体要求有关。比如,如果企业需要高并发、接入知识库、接入联网功能等,都会存在较大的工作量。
“对于满血DeepSeek-R1 671B模型来说,本地化部署的硬件成本在百万级别,一般来说是远高于部署成本的。有些中小型企业会使用蒸馏版的模型,或者是直接调用云厂商的API,这样适配成本就会低很多。”尤洋补充道。
对于业内的成本担忧,赵欣称,目前公司客户以中小型企业和传统行业的大型企业为主,虽公司体量、业务不同,所牵涉的成本数据也存在较大差异,但从目前的适配案例来看,客户企业一般都具备承担该项成本的能力。