近期,中国AI技术公司DeepSeek推出的AI大模型在全球范围内引发了轰动。起初,众多国际科技巨头对DeepSeek的技术持怀疑态度,但随着时间的推移,这些大厂纷纷转变立场,开始积极支持DeepSeek的模型。
DeepSeek推出的V3和R1两款开源AI模型,彻底颠覆了业界对于AI算力需求的传统认知。特别是其推理大模型DeepSeek-R1,不仅在性能上与OpenAI的GPT模型不相上下,而且所需的训练成本仅为后者的约二十分之一。据悉,V3模型仅使用了2048个H800 GPU,在两个月的训练周期内便完成了全部工作,总花费约为558万美元。DeepSeek-R1的API定价也极具竞争力,仅为OpenAI模型的约二十八分之一,使用成本降低了约97%。
DeepSeek采用并不先进的AI芯片,却以更低的算力要求和成本,实现了与美国顶级AI大模型相当的效果。这一成就不仅引发了美国AI技术厂商的恐慌,如OpenAI、微软、meta和谷歌等,还导致AI芯片企业如英伟达等的价值重估和股价波动。面对DeepSeek的崛起,OpenAI和微软曾一度怀疑DeepSeek可能对其模型进行了不当的“蒸馏”。蒸馏是一种技术,可以将大型模型的知识转移到较小模型中。然而,DeepSeek随后获得了业界的广泛认可。
OpenAI的首席执行官奥尔特曼公开承认,DeepSeek确实是一个出色的模型,并表示OpenAI虽然会继续努力开发更好的模型,但未来的领先优势将不会像以往那样显著。他还透露,OpenAI正在讨论新的开源策略,并承认在DeepSeek的问题上,公司可能站错了队。
与此同时,亚马逊AWS、微软Azure、阿里云等头部云服务大厂纷纷上线了基于DeepSeek-R1模型的云服务。用户可以在这些平台上轻松部署和调用DeepSeek-R1模型,享受高质量的服务和支持。英伟达、英特尔、AMD等AI芯片厂商也宣布了对DeepSeek模型的支持,进一步扩大了DeepSeek的应用生态。
从1月30日起,亚马逊AWS允许用户在Amazon Bedrock和Amazon SageMaker AI中部署DeepSeek-R1模型。随后,微软也宣布DeepSeek-R1已在Azure AI Foundry和GitHub上提供。华为云、腾讯云、百度智能云和阿里云等也相继宣布了对DeepSeek模型的支持,并推出了超低价格方案及限时免费服务。
字节跳动旗下的火山引擎也全面支持DeepSeek系列大模型,包括V3和R1等不同尺寸的模型。企业用户可以在火山引擎机器学习平台veMLP中部署或通过火山方舟平台直接调用这些模型。京东云也正式上线了DeepSeek-R1和DeepSeek-V3模型,支持公有云在线部署和专混私有化实例部署两种模式。
在芯片领域,英伟达、AMD和英特尔等大厂也迅速完成了对DeepSeek大模型的适配。英伟达宣布DeepSeek-R1模型已登陆NVIDIA NIM,并在单个英伟达HGX H200系统上实现了惊人的处理速度。AMD则将新的DeepSeek-V3模型集成到Instinct MI300X GPU上,针对AI推理进行了优化。英特尔也在其最新发布的酷睿Ultra 200H平台的AI PC上实现了对DeepSeek-R1-1.5B模型的本地支持。
在应用生态方面,盛天网络、万兴科技、易点天下和当虹科技等多家企业已完成了对DeepSeek模型的对接和适配工作。这些企业计划将DeepSeek模型应用于其社交产品、视频编辑软件、智能营销平台和视听大模型等多个领域,以探索更优质的产品与服务,并结合弹性算力池有效降低算力成本。