当前位置:首页 > 汽车 > 正文

DeepSeek接入潮汹涌:适配商忙坏,大厂或赔惨?

  • 汽车
  • 2025-02-23 01:01:06
  • 14

  本文源自:时代周报

DeepSeek接入潮汹涌:适配商忙坏,大厂或赔惨?

  DeepSeek引发的蝴蝶效应还在持续。

  1月20日,DeepSeek公司正式发布了其推理模型DeepSeek-R1的完整版本。该模型通过算法优化,以较低的训练成本实现了与OpenAI推理模型o1相媲美的性能,并且开源。

  传统AI训练对算力的需求巨大,当业内普遍为AGI(通用人工智能)贴上“大力出奇迹”的标签,DeepSeek却开辟了一片“无人区”,吸引一众企业争相接入。企业接入DeepSeek,即企业通过硬件设备连接DeepSeek的访问地址,从而获取DeepSeek的模型服务。

  据不完全统计,接入DeepSeek-R1模型的国内上市公司已经超过100家,其中不乏阿里、腾讯、百度、三大运营商这类拥有自研模型和AI应用的企业。

  时代周报记者采访多位业内人士发现,企业选择DeepSeek的原因主要集中在两方面。一是DeepSeek-R1开源较彻底,部署方便,且在特定场景下展示了强大的处理和推理能力;另一方面,DeepSeek声量走高,意味着接入方有机会承接其外溢的流量。QuestMobile数据显示,DeepSeek的日活跃用户数在2月1日突破3000万大关。

  不过, 大厂接入DeepSeek模型也可能面临巨大的亏损压力。近期,AI Infra(连接硬件和上层应用的中间层基础设施)企业潞晨科技CEO尤洋指出,满血版DeepSeek-R1每百万token(输出)定价16元,如果每日输出1000亿token,一个月算下来接入方企业可获得4800万元收入。据他测算,完成1000亿token的输出,需要约4000台搭载H800的机器,以目前H800的市价或者折旧来计算,每月仅机器成本就达4.5亿元,因此企业方可能面临每月4亿元的亏损,“用户越多,服务成本越高,亏损越多”。

  AI Infra厂商市场负责人张迪(化名)告诉时代周报记者,离DeepSeek疯狂发酵仅有数周,软硬件适配、测试、上架等工程都需要时间,目前公司对外合作的项目还未落地,因此具体成本数据暂不清晰。

  在AI的潮汐效应下,接入DeepSeek是否一本万利,还需让子弹再飞一会儿。

  接入模型并非“量”的比拼

  目前来看,企业接入DeepSeek的程度有所不同。

  2月13日,继微信、腾讯文档、QQ浏览器等业务侧产品先后接入DeepSeek-R1后,腾讯自研的AI助手“腾讯元宝”也正式接入DeepSeek-R1,支持用户切换使用混元大模型和DeepSeek-R1。

  相比腾讯近乎全面拥抱DeepSeek的决心,阿里等公司对DeepSeek的接入主要体现在自己的主营业务侧产品,给自研的大模型产品保留了一部分空间。如阿里的1688、钉钉、阿里云相继接入DeepSeek,其旗下全能AI助手通义APP尚未表态。

  不难发现,接入DeepSeek的企业,率先将DeepSeek应用在了AI能力运用场景较多的业务上。

  “接入模型并非‘量’的比拼,需求方应该充分考虑模型与业务场景适配性。”值得买科技CTO王云峰在接受时代周报记者采访时表示,当下大模型的应用模式愈发多样,不同模型有各自适配场景。

  此前,值得买科技自研了130亿参数消费大模型,也接入了一些主流模型,谈及接入DeepSeek的原因,王云峰解释称,值得买科技的自研模型在商品理解、价格预测等垂直领域能力出色,但AI技术的复杂性,决定了单一模型无法覆盖所有场景。例如做检索增强时,内部工具流程需AI合理调度,外部通用模型难以适配,此时自研模型就负责内部流程调度、用户意图理解等关键任务,而通用模型则用于站内文章生成这类通用场景。

  从实际落地效果来看,DeepSeek-R1的问题处理和推理能力表现出色。王云峰告诉时代周报记者,和包括DeepSeek-V3在内的其他模型相比,DeepSeek-R1生成内容的行文逻辑更清晰,文学性也更突出。其强大的语言处理能力,让公司内容生产的效率有了明显提升,“如果使用通用模型,还需要进行垂类数据微调才能更好发挥作用。”

  网络安全公司知道创宇是DeepSeek更早期的受益者。

  去年12月,知道创宇旗下的网络空间测绘引擎ZoomEye国际版同步上线了对DeepSeek的调用支持。知道创宇CSO(首席战略官)周景平向时代周报记者表示,从接入DeepSeek到现在,ZoomEye国际版的平台注册量增长28.5%,平台活跃度增长121.6%,AI 搜索功能使用率达35.8%。

  周景平在接受时代周报记者采访时难掩兴奋。他称,DeepSeek被公司应用在包括漏洞挖掘、数据情报分析、规则转化处理、自动化安全运营等多个细分业务场景中。在数据情报分析上,受益于DeepSeek等大模型数据分析及推理能力,公司可高效补齐之前所依赖的分析师知识框架之外的细节点。

  “相比GPT,DeepSeek聚焦通过低成本高性能的技术路线,降低企业接入门槛,并通过开源策略促进技术普及和产业链协同,这为国内企业级应用的爆发提供了更大的可能性。”在周景平看来,DeepSeek-V3和DeepSeek-R1利好接入企业的意义在于性价比高。他说,DeepSeek开源较为彻底,同时发布了蒸馏模型的本地量化版,这使得企业进行本地化部署的性价比大幅度提升。

  适配商等来春天?

  企业扎堆接入DeepSeek,也忙坏了位于大模型产业链中间层的适配厂商。

  张迪向时代周报记者表示,DeepSeek爆火后,公司往来的咨询者日益增多。“以前一两个月才有一位前来咨询业务的客户,现在我们每天要接待十几个。”张迪称,现在几乎每天都需要加班,除了应对业务咨询,还要参与直播、客户验收、商务对接等工作,公司和小组的会议往往被安排在晚上8点和9点。

  张迪称,DeepSeek大火之前,大家对私有化部署仅仅停留在探讨产品功能的层面,而如今公司的咨询者,或许在焦虑的驱使下,合作目的更加明确,双方谈话主题大致锁定在为提需求、了解产品性能、给报价三个方面。

  另一AI Infra厂商的创始人赵欣向时代周报记者表示,需求大涨,行业工作节奏普遍加快,“有人手里拿着钱排队等你的产品,肯定要比没事做的时候兴奋。”他表示,产品走向市场,真正地为人所用,也是个人价值层面的正向反馈。

  此前,有分析人士向时代周报记者称,因国产算力适配成本较高,在英伟达的芯片稀缺情况下,使用国产算力的企业接入DeepSeek可能要面临一定财务压力,继而影响到中间层厂商的发展前景。

  尤洋向时代周报记者拆解了企业接入DeepSeek的路径,他表示,DeepSeek是开源模型,接入方只要有算力就可以部署运行。

  尤洋说,算力的主流提供方式一般有两种,一种是企业自有算力,比如有本地的一体机或者机房;另一种是公有云上的算力,企业可以按月租用。除此之外,有一些云厂商还提供MaaS(Model as a Service)的模式,也就是将DeepSeek模型部署到公有云上后,需求企业再调用DeepSeek API,按实际使用的token量付费,适合早期的轻量化探索需求。

  企业接入DeepSeek的成本主要分硬件和部署成本两部分。

  硬件成本方面,不同规格的硬件价格差异较大,相同规格不同规模的硬件价格也十分不同。“对于仅需要使用模型的企业来说,选择推理芯片会有效降低硬件成本;而对于有微调和训练要求的企业,可能在购买或租赁硬件时需要使用训练芯片。另外,对于并发数量或者输出速度要求较高的企业,需要选择有充足算力和显存的芯片,这类芯片的价格会偏高。”尤洋表示。

  而部署成本的区别除了体现在不同规格芯片的部署难度上,还和企业的具体要求有关。比如,如果企业需要高并发、接入知识库、接入联网功能等,都会存在较大的工作量。

  “对于满血DeepSeek-R1 671B模型来说,本地化部署的硬件成本在百万级别,一般来说是远高于部署成本的。有些中小型企业会使用蒸馏版的模型,或者是直接调用云厂商的API,这样适配成本就会低很多。”尤洋补充道。

  对于业内的成本担忧,赵欣称,目前公司客户以中小型企业和传统行业的大型企业为主,虽公司体量、业务不同,所牵涉的成本数据也存在较大差异,但从目前的适配案例来看,客户企业一般都具备承担该项成本的能力。

有话要说...