在刚刚结束的春节假期期间,DeepSeek的爆火如“平地一声雷”。这家于2023年成立的人工智能基础技术研究企业,在今年1月20日正式开源其R1推理模型,该模型在数学、代码、自然语言推理等任务上,性能比肩OpenAI-o1正式版,且开发成本仅为600万美元,仅相当于OpenAI-o1模型开发成本的1.2%。DeepSeek于2024年12月26日宣布上线并同步开源的DeepSeek-V3模型,以1/11的算力、仅2000个GPU芯片训练出性能超越GPT-4o的大模型,且训练成本仅相当于GPT-4o的5.6%。
业内人士表示,DeepSeek此举开拓出高性能模型训练的新思路,其以低成本实现大模型训练,也引发了业界对海外AI企业耗费巨量算力资源训练模型必要性的怀疑。近日,多家中外算力芯片企业纷纷发布适配DeepSeek模型的消息。
燧原科技:实现全国各地智算中心DeepSeek的全量推理服务部署。2月6日,燧原科技宣布,完成了对DeepSeek全量模型的高效适配,包括DeepSeek-R1/V3 671B原生模型、DeepSeek-R1-Distill-Qwen-5B/7B/14B/32B、DeepSeek R1-Distill-Llama-8B/70B等蒸馏模型。截至目前,DeepSeek的全量模型已在庆阳、无锡、成都等智算中心完成了数万卡的快速部署。
华为:支持DeepSeek系列模型“一键获取”、“开箱即用”。2月5日,华为技术有限公司宣布,DeepSeek-R1、DeepSeek-V3、DeepSeek-V2、Janus-Pro正式上线昇腾社区,支持一键获取DeepSeek系列模型,支持昇腾硬件平台上开箱即用。
海光信息:DCU适配三大模型,相关模型已正式上线。2月4日,海光信息宣布,其技术团队成功完成DeepSeek V3和R1模型与海光DCU(深度计算单元)的适配,并正式上线。2月5日,海光信息宣布其技术团队成功完成DeepSeek-Janus-Pro多模态大模型与海光DCU的适配优化,并正式上线。因DCU采用了GPGPU通用加速计算架构,DeepSeek模型可直接在DCU上运行,并不需要大量适配工作,技术团队的主要工作是进行精度验证和持续的性能优化。本次适配优化的DeepSeek-Janus-Pro模型具备跨模态理解与生成能力,专注于结合视觉与语言理解能力,旨在处理更复杂的跨模态任务。
天数智芯:一天完成DeepSeekR1适配。2月4日,天数智芯与 Gitee AI 联合发布消息,成功完成了与DeepSeek R1的适配工作,并且已正式上线多款大模型服务,其中包括DeepSeek R1-Distill-Qwen-1.5B、DeepSeek R1-Distill-Qwen-7B、DeepSeek R1-Distill-Qwen-14B等,其过程仅耗时1天。
摩尔线程:已部署DeepSeek蒸馏模型推理服务。2月4日,摩尔线程宣布实现了对DeepSeek蒸馏模型推理服务的部署。基于Ollama开源框架,完成了对DeepSeek-R1-Distill-Qwen-7B蒸馏模型的部署,并在多种中文任务中展现了优异的性能。用户也可以基于MTT S80和MTT S4000进行DeepSeek-R1蒸馏模型的推理部署。
英特尔:支持AI PC本地部署。1月31日,英特尔宣布,DeepSeek目前能够在英特尔产品上运行,更可以在AI PC上实现离线使用,强调DeepSeek的本地部署能力。DeepSeek的蒸馏模型在至强和Gaudi平台上得到了支持,能够帮助客户实现更低的成本和单价性能优势。例如,在最新发布的酷睿Ultra 200H(Arrow Lake H)平台上,DeepSeek-R1-1.5B模型能够顺利运行,且能够解决数学难题。DeepSeek最新的Janus-Pro图像生成和理解模型能够在英特尔酷睿Ultra 200V系列处理器(Lunar Lake)上运行。
英伟达:推理微服务支持DeepSeek-R1。1月30日,英伟达宣布,其开发者网站现已提供6710亿参数的DeepSeek-R1模型微服务预览版。单个NVIDIA HGX H200系统上每秒可为DeepSeek-R1提供多达3872个tokens。开发人员可以测试和试验可下载的NIM微服务应用程序编程接口(API)。通过将NVIDIA AI Foundry与NVIDIA NeMo软件结合使用,企业还将能够为专用AI代理创建自定义的DeepSeek-R1 NIM微服务。