• 首页 >  人工智能 >  AI产业
  • 北京大学:2025年DeepSeek私有化部署和一体机报告(121页).pdf

    定制报告-个性化定制-按需专项定制研究报告

    行业报告、薪酬报告

    联系:400-6363-638

  • 《北京大学:2025年DeepSeek私有化部署和一体机报告(121页).pdf》由会员分享,可在线阅读,更多相关《北京大学:2025年DeepSeek私有化部署和一体机报告(121页).pdf(121页珍藏版)》请在薪酬报告网上搜索。

    1、1DeepSeek内部研讨系列-DeepSeek 私有化部署和一体机AI肖睿团队(韩露、王春辉、顾跃、李娜、谢安明、陈钟)20250224北京 北大青鸟人工智能研究院 北大计算机学院元宇宙技术研究所2摘要1.本次讲座为DeepSeek原理和应用系列研讨的讲座之一,让大家可以决策是否需要自己部署DeepSeek系列模型,并了解自己本地化部署DeepSeek的基本方法,同时了解更专业的企业级部署方法,有助于选择DeepSeek一体机型号,并能理解DeepSeek云服务的工作机制和原理,用好DeepSeek云服务的API调用方法。2.本讲座的内容分为四个主要部分:首先,除了DeepSeek满血版之外

    2、,还有各种各样的蒸馏版和量化版,以及DeepSeek的不同专业模型。我们将介绍人工智能大模型的基本概念,以及DeepSeek各个模型的特点与适用场景,对比不同规模模型的性能表现,帮助大家选择最适合自己需求的版本。其次,对于普通用户在自己的电脑上部署和体验DeepSeek(蒸馏版)的情况,我们会评估和建议硬件要求,演示如何通过Ollama命令行高效部署DeepSeek模型,解决下载过程中可能遇到的常见问题。为了提升在自己的电脑上安装DeepSeek模型后,大家与DeepSeek模型的交互体验,我们还将介绍Open WebUI和Chatbox等前端展示工具的配置与使用方法。然后,对于专业级的企业部

    3、署DeepSeek,或把DeepSeek(蒸馏版和满血版)部署在专业的昂贵的推理机上,本讲座将探讨基于Transformers快速验证和vLLM的高性能部署方案,并提供真实企业基于vLLM的部署DeepSeek-70b的相关数据和经验。最后,作为补充内容,针对计算资源受限的场景,我们专门设计了低成本部署环节,详细讲解Unsloth R1动态量化部署的三种实现路径:基于llama.cpp、KTransformers以及Ollama框架动态量化部署。3.在技术学习的道路上,优质学习资源至关重要。推荐大家参考人工智能通识教程(微课版)这本系统全面的入门教材,结合B站“思睿观通”栏目的配套视频进行学习

    4、。此外,欢迎加入社区,以及“AI肖睿团队”的视频号和微信号,与志同道合的AI爱好者交流经验、分享心得。3301人工智能与DeepSeek目 录03企业部署DeepSeek02个人部署DeepSeek04DeepSeek一体机4人工智能与DeepSeekPART 015大模型相关术语多模态文本、图片、音频、视频AI工具(国内)DeepSeek、豆包、Kimi、腾讯元宝、智谱清言、通义千问、秘塔搜索、微信搜索.通用模型大语言模型(LLM,Large Language Model)生成模型推理模型视觉模型(图片、视频)音频模型多模态模型行业模型(垂直模型、垂类模型)教育、医疗、金融、办公、安全等6大

    5、模型的前世今生人工智能人工智能:让机器具备动物智能,人类智能,非人类智能(超人类智能)运算推理:规则核心;自动化知识工程:知识核心;知识库+推理机机器学习机器学习:学习核心;数据智能(统计学习方法,数据建模)常规机器学习方法:逻辑回归,决策森林,支持向量机,马尔科夫链,.人工神经网络人工神经网络:与人脑最大的共同点是名字,机制和架构并不一样传统神经网络:霍普菲尔德网络,玻尔兹曼机,.深度神经网络:深度学习深度学习传统网络架构:DBN,CNN,RNN,ResNet,Inception,RWKV,TransformerTransformer架构架构:可以并行矩阵计算(GPU),核心是注意力机制(A

    6、ttention)编码器(BERT):多数embedding模型,Ernie早期版本,.混合网络:T5、GLM解码器(GPTGPT):大语言模型(大语言模型(LLMLLM),也是传统的多模态模型的核心生成式人工智能生成式人工智能(GenAIGenAI):):AIGCAIGCDeepSeekDeepSeek、Qwen、GLM、Step、MiniMax、hunyuan、kimi、火山、OpenAI GPTOpenAI GPT(ChatGPTChatGPT)、Claude、Llama、Grok、DiffusionDiffusion架构架构:主要用于视觉模型(比如Stable Diffusion、DA

    7、LL.E),现在也开始尝试用于语言模型Diffusion+Transformer架构:例如SoraSora的DiT(加入Diffusion的视觉模型),部分新的多模态模型架构7大模型的发展阶段生成模型ref:中文大模型基准测评2024年度报告(2025.01.08)推理模型8生成模型与推理大模型的对比比较项OpenAI GPT-4o(生成模型)OpenAI o1(推理模型)模型定位专注于通用自然语言处理和多模态能力,适合日常对话、内容生成、翻译以及图文、音频、视频等信息处理、生成、对话等。侧重于复杂推理与逻辑能力,擅长数学、编程和自然语言推理任务,适合高难度问题求解和专业领域应用。一般是在生成

    8、模型的基础上通过RL方法强化CoT能力而来推理能力在日常语言任务中表现均衡,但在复杂逻辑推理(如数学题求解)上准确率较低。在复杂推理任务表现卓越,尤其擅长数学和代码等推理任务。多模态支持支持文本、图像、音频乃至视频输入,可处理多种模态信息。当前主要支持文本输入,不具备图像处理等多模态能力。应用场景适合广泛通用任务,如对话、内容生成、多模态信息处理以及多种语言相互翻译和交流;面向大众市场和商业应用。适合需要高精度推理和逻辑分析的专业任务,如数学竞赛、编程问题和科学研究;在思路清晰度要求高的场景具有明显优势,比如采访大纲、方案梳理。用户交互体验提供流畅的实时对话体验,支持多种输入模态;用户界面友好

    9、,适合大众使用。可自主链式思考,不需要太多的过程指令,整体交互节奏较慢。普通大模型是玩知识和文字的,推理大模型是玩逻辑的,至于计算问题,还是找计算器吧推理模型也不是万能的,其幻觉通常比生成模型大,很多不需要强推里的场合还是传统的生成模型比较适合99自 2024 年起,AI肖睿团队便接入DeepSeek V2,持续应用 DeepSeek 技术体系,历经 V2(MoE 架构)、V3(MTP)探索,现已在生产项目中接入DeepSeek R1(满血版)。其中,V2和V3都是生成模型,R1为推理模型。下面,基于我们团队对DeepSeek的技术研究和实战经验,为大家系统梳理这三大模型技术特性,剖析知识蒸馏

    10、在各版本提升效率的逻辑,并结合边缘计算、数学编程、中文等场景实例,对比DeepSeek R1各版本模型的计算效率与推理精度的演进,同时说明标准化 API/SDK 对技术落地的适配机制。10DeepSeek快速出圈11DeepSeek-“服务器繁忙”2024年12月26日,DeepSeek因推出对标GPT 4o的语言模型DeepSeek V3,首先在美国的人工智能行业内部一起轰动。2025年1月20日,DeepSeek继续发布对标OpenAI o1的语言模型DeepSeek R1。由于“深度思考”模式生成的答案的过程可视化,完全开源模型参数和技术方案,采用极致的模型架构优化和系统优化手段降低了模

    11、型的训练和推理成本,加之完全由中国本土团队制造,让DeepSeek公司和DeepSeek R1模型在蛇年春节前后彻底出圈。春节之后,随着大量用户的快速涌入,DeepSeek 官方提供的模型服务就一直在经历拥堵,它的联网搜索功能间歇性瘫痪,深度思考模式则高频率提示“服务器繁忙”,此类现象让大量用户倍感困扰。这也揭示了AI时代和互联网时代的底层逻辑的不同:在互联网时代,用户使用一个系统的成本很低,边际成本接近于零,但在AI时代,用户使用一个系统的成本比较高,后天会有大量的算力需求和token消耗,边际成本下降并不明显。12公司简介DeepSeek于2023年7月成立,是幻方量化孵化出的一家大模型研

    12、究机构,团队分布在中国杭州和北京,是中国大模型七小虎之一。除了DeepSeek之外,其它六家也被投资界称为中国大模型企业六小龙(智谱AI、百川智能、月之暗面、零一万物、阶跃星辰、MiniMax)。模型系列公司与模型介绍0113模型的演进历史和特点14三个主要的DeepSeek模型的区别对比维度DeepSeek V2DeepSeek V3DeepSeek R1核心架构DeepSeekMoE(混合专家架构改进版)总参数量 2360 亿单次激活 210 亿参数升级版 DeepSeekMoE 架构总参数量 6710 亿单次激活 370 亿参数与V3模型相同训练方法传统预训练+监督微调(SFT)+强化学

    13、习(RL)数据量 8.1 万亿 tokens预训练+SFT+MTP+RL引入 GRPO 算法提升RL效率和效果数据量14.8万亿tokens跳过 SFT,直接通过RL激发推理能力采用两阶段 RL 和冷启动技术部分关键特性首次引入 MoE 架构,并进行了改进你 无辅助损失的负载均衡 代码任务生成速度提升至 60 TPS RL驱动推理优化 模型蒸馏实验(可迁移至小模型)Zero版验证了自我进化能力性能表现举例生成速度20TPS,适合通用生成任务综合 NLP 任务接近 GPT-4oMMLU 知识理解 88.5%API 成本大幅降低数学推理(MATH-500 97.3%)代码生成(Codeforces

    14、)与openAI-o1-1217相当15模型简介DeepSeek-V2模型简介DeepSeek-V2模型与DeepSeek LLM 67B相比,DeepSeek-V2实现了更强的性能,同时节省了42.5%的训练成本,减少了93.3%的KV缓存,并将最大生成吞吐量提升至5.76倍。设计初衷DeepSeek-V2旨在解决现有大语言模型训练成本高、推理效率低的问题。通过引入MoE架构,它在保持高性能的同时,大幅降低训练成本和推理时间,为广泛的应用场景提供支持。核心原理DeepSeek-V2基于混合专家(Mixture-of-Experts,MoE)架构,将任务分配给多个专家模型,每个专家专注于特定子

    15、任务,从而提升性能和效率。模型总参数量为236B,其中21B参数在每个token上被激活,使其在处理复杂任务时更灵活高效。16模型简介DeepSeek-V3模型简介DeepSeek V3模型采用的模型架构与V2模型差不多,都采用MLA和MoE。V3在V2的基础上主要是增加了多令牌预测(Multi-Token Prediction,MTP)的训练目标。我们都知道大模型是自回归模型,在回答问题时,本质上是一个字一个字的预测出来的,而MTP实现了类似同时预测多个字的效果。准确地讲,这里不是“字”,是“token”。这里用“字”,主要是便于理解。17模型简介DeepSeek-R1与以往的研究不同,R1

    16、模型通过强化学习而非监督学习的方式显著提升了大模型的在数学和逻辑推理任务中的表现,验证了强化学习在提升模型推理能力上的作用。通过强化学习自动学习复杂的推理行为(自我验证与反思),然后随着训练的深入,模型逐步提升了对复杂任务的解答能力,并显著提高了模型推理能力。在数学和编程基准测试集上,与open AI-o1模型的表现相当并大幅超越其它现有大模型。18DeepSeek模型优势19DeepSeek模型优势20DeepSeek模型优势2121第21页DeepSeek R1达到了跟o1相当、或者至少接近的推理能力,且将推理过程可视化它做到这个水平只用到少得多的资源,所以价格十分便宜它是完全开源的并且还

    17、发布论文,详细介绍了训练中所有的步骤和窍门DeepSeek深度求索公司是一家纯粹的中国公司混合专家MOE多头潜在注意力MLA强化学习GRPODeepseekDeepseek官网地址:http:/http:/https:/https:/DeepSeekDeepSeek-R1 R1 训练技术全部公开,论文链接:https:/ 训练及框架:FP8混合精度训练:在关键计算步骤使用高精度,其他模型层使用FP8低精度进一步降低训练成本。这一点,是DeepSeek团队在Infra工程上的非常有价值的突破。长链推理技术(TTC):模型支持数万字的长链推理,可逐步分解复杂问题并进行多步骤逻辑推理。并行训练策略(

    18、HAI):16 路流水线并行(Pipeline Parallelism,PP)、跨 8 个节点的 64 路专家并行(Expert Parallelism,EP),以及数据并行(Data Parallelism,DP),大幅提升模型训练速度。通讯优化DualPipe:高效的跨节点通信内核,利用 IB 和 NVLink 带宽,减少通信开销,提高模型推理性能。混合机器编程(PTX):部分代码直接进行使用PTX编程提高执行效率,并优化了一部分算子库。低成本训练:DeepSeek-V3的训练成本为557.6万美元,仅为OpenAI的GPT-4o等领先闭源模型的3%-5%。24DeepSeek模型特点总结

    19、社会价值:开源生态:DeepSeek采用开源策略,使用最为开放的MIT开源协议,吸引了大量开发者和研究人员,推动了AI技术的发展。模型蒸馏支持:DeepSeek-R1同时发布了多个模型蒸馏。虽然这些蒸馏模型的生产初衷是为了验证蒸馏效果,但在实质上帮助用户可以训练更小型的模型以满足不同应用场景需求,也给用户提供更多的抑制了DeepSeek R1满血版模型的能力的小模型选择(虽然也给市场和用户造成了很多困扰)。AI产品和技术的普及教育:对于社会,认识到AI是一个趋势,不是昙花一现;对于市场,用户开始主动引入AI,不用教育了;对于大模型企业,越发开始重视infra工程的价值了。25DeepSeek-

    20、R1全家桶ModelBase ModelModel DownloadDeepSeek-R1-Distill-Qwen-1.5BQwen2.5-Math-1.5BHuggingFaceModelScope蒸馏模型,能力稍弱实际上是增加了推理能力的Qwen模型和Llama模型,严格来讲不能称为DeepSeek模型(市场上有误解,厂商有误导,Ollama工具的模型选项中也有误导)DeepSeek-R1-Distill-Qwen-7BQwen2.5-Math-7BHuggingFaceModelScopeDeepSeek-R1-Distill-Llama-8BLlama-3.1-8BHuggingFa

    21、ceModelScopeDeepSeek-R1-Distill-Qwen-14BQwen2.5-14BHuggingFaceModelScopeDeepSeek-R1-Distill-Qwen-32BQwen2.5-32BHuggingFaceModelScopeDeepSeek-R1-Distill-Llama-70BLlama-3.3-70B-InstructHuggingFaceModelScopeDeepSeek-R1-671BDeepSeek-V3-BaseHuggingFaceModelScope满血版,能力最强26蒸馏模型-概念模型蒸馏的定义 通俗解释:模型蒸馏就像是让一个“老师

    22、”(大模型)把知识传授给一个“学生”(小模型),让“学生”变成“学霸”。正式定义:模型蒸馏是一种将大型复杂模型(教师模型)的知识迁移到小型高效模型(学生模型)的技术。模型蒸馏的原理 教师模型的训练:先训练一个性能强大但计算成本高的教师模型。生成软标签:教师模型对数据进行预测,得到每个样本的概率分布,这些就是软标签。训练学生模型:用软标签和硬标签共同训练学生模型。优化与调整:通过调整超参数,优化学生模型的性能。蒸馏技术的优势 模型压缩:学生模型参数少,计算成本低,更适合在资源受限的环境中部署。性能提升:学生模型通过学习教师模型的输出概率分布,能够更好地理解数据的模式和特征。效率提高:学生模型训练

    23、所需的样本数量可能更少,训练成本降低。27DeepSeek-R1蒸馏模型-能力对比DeepSeek蒸馏版的选择经验千万别用1.5B和8B做正经业务,会翻车!做自然语言对话7B就很好用了预算有限又想搞事情就选14B要做知识问答选32B,对代码支持也不错70B性价比最低,与32B性能类似,成本翻倍,没有什么理由存在28边缘计算场景的低延迟部署复杂数学与编程任务中文场景的深度优化DeepSeek模型应用场景DeepSeek结合天翼云智能边缘云ECX,能够在靠近用户的边缘节点部署模型,显著降低数据传输延迟,适用于对实时性要求极高的场景DeepSeek-R1在数学推理和代码生成领域展现了超越同类模型的独

    24、特能力理解文化背景和习惯用语(如生成春节习俗对比文章),优于GPT-4的中文处理能力29使用方式 访问官网( 或 https:/ 第三方服务:秘塔AI、微信搜索、Molly R1、问小白等。API调用:DeepSeek、硅基流动、火山引擎等。获取API密钥调用,适合开发者集成,同样存在服务不稳定问题。使用第三方服务与API调用 个人部署:个人在本地设备运行应用,依赖自身计算资源,灵活便捷。企业部署:企业内网搭建私有化系统,支持多用户协作,数据可控。一体机:直接购买配置了DeepSeek模型的具备一定算力的一体机。本地部署30个人部署DeepSeekP e r s o n a ld e p l

    25、o y m e n tPART 0230/413131对于个人玩家如何在自己的电脑上部署和体验DeepSeek(一般是蒸馏版),我们会详细分享具体的模型评估数据和软硬件要求,通过实操环节来详细讲解Ollama命令行高效部署全流程,并构建多形态用户接入方案,包括浏览器插件PageAssist、桌面端Chatbox和团队协作型OpenWebUI,实现从个人到企业的全场景覆盖。其中分享过程中常见问题和经验,帮助大家可完整体验、并成功实现本地化部署DeepSeek。32010203模型部署环境准备明确模型部署的软硬件要求,分析参数量对推理效果和硬件配置的影响。提供最低与推荐配置清单,详解Ollama框

    26、架优势及环境变量配置,建立标准化部署环境。前端展示331.模型能力:通常来说,参数量越大,模型就有更强的理解和生成能力,但是需要更多计算资源。2.硬件需求:参数越多,对内存(RAM)和显存(VRAM)的需求就越高。3.运行速度:参数量大的模型,推理速度更慢,尤其是资源不足的时候。参数量影响模型能力1.本地部署DeepSeek时,需根据硬件配置选择合适模型版本。如1.5B模型适合资源受限设备,671B模型需服务器集群支持。2.合理匹配参数量与硬件,可优化模型性能,提升运行效率,避免资源浪费或性能瓶颈。参数量与硬件配置匹配模型参数量意义34硬件配置-推荐模型参数CPU要求内存要求显存要求(GPU)

    27、硬盘空间适用场景1.5B6核(现代多核)16GB4GB(如:GTX 1650)5GB+实时聊天机器人、物联网设备7B8核(现代多核)32GB8GB(如:RTX 3070)10GB+文本摘要、多轮对话系统8B10核(多线程)32GB10GB12GB+高精度轻量级任务14B12核64GB16GB(如:RTX 4090)20GB+合同分析、论文辅助写作32B16核(如i9/Ryzen 9)128GB24GB(如:RTX 4090)30GB+法律/医疗咨询、多模态预处理70B32核(服务器级)256GB40GB(如:双A100)100GB+金融预测、大规模数据分析671B64核(服务器集群)512GB

    28、160GB(8x A100)500GB+国家级AI研究、气候建模Ollama中提供的deepseek-r1模型均为4位量化模型,所需资源较正常少一些,如果要运行非量化模型,则需要更大的显存(比如7B需要至少16G显存)35硬件配置-最低模型参数CPU要求内存要求显存要求(GPU)硬盘空间适用场景1.5B4核(Intel/AMD)8GB无(纯CPU)或2GB(GPU加速)3GB+树莓派、旧款笔记本、简单文本生成7B4核(多线程支持)16GB4GB8GB+本地开发测试、轻量级NLP任务8B6核(多线程)16GB6GB8GB+代码生成、逻辑推理14B8核32GB8GB15GB+企业级文本分析、长文本

    29、生成32B12核48GB16GB19GB+复杂场景对话、深度思考任务70B16核(服务器级)64GB24GB(多卡)70GB+创意写作、算法设计671B32核(服务器集群)128GB80GB(多卡)300GB+科研级任务、AGI探索上页推荐配置中,是较为流畅的运行模型,而最低配置是指可以运行模型,但流畅度会稍差一些36若仅需简单任务,如实时聊天或轻量级文本生成,可选择1.5B或7B模型,搭配较低配置硬件,如普通笔记本或台式机。对于复杂任务,如合同分析、论文写作或大规模数据分析,需选择14B及以上模型,并配备高性能硬件,如高端显卡和大容量内存。根据需求选择01在预算有限的情况下,可优先选择较低参

    30、数量的模型,以满足基本需求,同时降低硬件成本。如1.5B模型可在资源受限设备上运行,适合预算紧张的用户。若预算充足且对性能要求较高,可选择高参数量模型,如32B或70B,搭配高端硬件,以获得更强的处理能力和更高的运行效率。考虑预算与性能平衡02随着任务需求的增加和预算的提升,可逐步升级硬件配置,如增加内存、更换高性能显卡或升级CPU。对于企业用户或科研机构,可根据实际需求构建服务器集群,以支持大规模模型的运行和复杂任务的处理。硬件升级与扩展03硬件选择建议37Ollama功能特点 Ollama是一个开源的大型语言模型服务工具,旨在帮助用户快速在本地运行大模型。通过简单的安装指令,用户可以在消费

    31、级PC上体验LLM的强大功能。Ollama会自动监测本地计算资源,优先使用GPU资源以提升推理速度,若无GPU则直接使用CPU资源。Ollama官方链接:https:/ 开源免费 简单易用 模型丰富 支持多平台 支持工具调用 资源占用低 功能齐全 隐私保护 社区活跃38 Windows/Mac系统:访问Ollama官网或GitHub页面,下载安装包并运行安装程序。Linux系统:一键安装命令curl-fsSL https:/ pull ollama/ollama,运行镜像时可使用dockerrun-d-v ollama:/root/.ollama-p 11434:11434-name olla

    32、ma ollama/ollama命令。安装Ollama客户端 Windows/Mac系统:访问Docker官网,下载Docker Desktop安装程序,运行安装并启动DockerDesktop。Linux系统:访问Docker官网,根据Linux发行版选择安装方式,如基于Debian系统使用sudo apt-getinstall docker-ce docker-ce-cli containerd.io命令安装,安装后启动Docker服务。安装Docker(可选)软件安装步骤39环境变量配置参数标识与配置OLLAMA_MODELS表示模型文件的存放目录,默认目录为当前用户目录即 C:User

    33、s%username%.ollamamodels Windows 系统 建议不要放在C盘,可放在其他盘(如 E:ollamamodels)OLLAMA_HOST表示ollama 服务监听的网络地址,默认为127.0.0.1 如果想要允许其他电脑访问 Ollama(如局域网中的其他电脑),建议设置成 0.0.0.0OLLAMA_PORT表示ollama 服务监听的默认端口,默认为11434 如果端口有冲突,可以修改设置成其他端口(如8080等)OLLAMA_ORIGINS表示HTTP 客户端的请求来源,使用半角逗号分隔列表 如果本地使用不受限制,可以设置成星号*OLLAMA_KEEP_ALIVE

    34、表示大模型加载到内存中后的存活时间,默认为5m即 5 分钟(如纯数字300 代表 300 秒,0 代表处理请求响应后立即卸载模型,任何负数则表示一直存活)建议设置成 24h,即模型在内存中保持 24 小时,提高访问速度OLLAMA_NUM_PARALLEL表示请求处理的并发数量,默认为1(即单并发串行处理请求)建议按照实际需求进行调整OLLAMA_MAX_QUEUE表示请求队列长度,默认值为512 建议按照实际需求进行调整,超过队列长度的请求会被抛弃OLLAMA_DEBUG表示输出 Debug 日志,应用研发阶段可以设置成1(即输出详细日志信息,便于排查问题)OLLAMA_MAX_LOADED

    35、_MODELS表示最多同时加载到内存中模型的数量,默认为1(即只能有 1 个模型在内存中)建议修改:将模型路径迁移至非系统盘(如OLLAMA_MODELS=E:models),按需提高OLLAMA_KEEP_ALIVE 和OLLAMA_NUM_PARALLEL 优化性能,生产环境限制请求来源并关闭调试日志。40 启动Ollama服务后,通过浏览器访问http:/localhost:11434可看到:”ollama is running“若无法访问,需检查Ollama服务是否启动,是否有防火墙或安全软件阻止端口访问,以及是否更改了默认端口。访问Ollama服务 本地部署:前端界面运行在本地计算机

    36、上,可通过http:/localhost:11434与Ollama服务通信。远程部署:需确保前端界面所在计算机可访问Ollama服务所在计算机的IP地址和端口。可在Ollama服务所在计算机上运行ollama serve-host 0.0.0.0命令允许远程访问或者修改环境变量,最后通过IP地址访问Ollama服务。前端界面网络访问 端口冲突:确保11434端口未被占用,若被占用,可通过:ollama serve-port 命令或者通过修改环境变量指定其他端口。代理设置:在代理网络环境中,需确保代理设置允许访问本地服务。防火墙设置:确保防火墙规则允许对11434端口的访问,可添加防火墙规则允许

    37、该端口流量。网络配置注意事项网络配置410301环境准备前端展示模型部署演示Ollama完整部署流程:从DeepSeek 7B模型选择到加载,详细讲解命令行指令集,重点说明模型加载与启动命令的正确使用方法。0242Ollama常用命令命令描述ollama serve启动 Ollamaollama create从 Modelfile 创建模型ollama show显示模型信息ollama run运行模型ollama pull从注册表中拉取模型ollama push将模型推送到注册表ollama list列出所有模型ollama ps列出正在运行的模型ollama cp复制模型ollama rm删

    38、除模型ollama help显示任意命令的帮助信息这两个命令是个人部署最主要的两个命令,主要用来下载和启动模型43使用ollama pull命令下载模型,格式为ollamapull。案例:某用户在终端输入ollama pull deepseek-r1:7b,从Ollama模型库中成功下载7B模型,耗时约10分钟。下载命令格式下载过程中,终端会显示下载进度条,实时显示下载速度和剩余时间。可通过ollama list命令查看已下载的模型列表,确认模型是否下载完成。案例:某用户在下载14B模型时,通过ollama list命令发现下载进度为50%,预计还需20分钟完成。下载过程监控若下载失败,可能是

    39、网络问题或模型库地址错误。可尝试重新运行下载命令,或检查网络连接和模型库地址。案例:某用户下载7B模型时因网络中断失败,重新运行下载命令后成功完成下载。下载失败处理使用Ollama命令下载模型44使用ollama run命令运行模型,格式为ollama run。案例:某用户在终端输入ollama run deepseek-r1:7b,模型成功启动并进入运行状态。运行命令格式模型运行后,可通过ollama ps命令查看正在运行的模型列表,确认模型是否正常运行。若模型未正常运行,可检查硬件资源是否充足,或是否有其他模型占用资源。案例:某用户运行14B模型后,响应速度较慢,经检查发现内存占用过高。运

    40、行状态检查使用ollama stop命令停止运行的模型,格式为ollama stop。案例:某用户在测试完成后,通过ollama stop deepseek-r1:7b命令停止了7B模型的运行,释放了系统资源。停止运行模型使用Ollama命令运行模型45模型运行效果46Ollama常见问题 问题描述 默认配置下Ollama服务暴露在公网,易被自动化脚本扫描攻击,导致算力盗用或模型文件删除。解决方案 强制身份认证:通过反向代理(如Nginx)添加Basic Auth认证,或在Ollama启动时绑定内网IP(OLLAMA_HOST=192.168.x.x)。网络层隔离:使用Docker的-netw

    41、ork host模式部署,配合iptables限制访问来源IP段。日志监控:启用Ollama的-verbose日志模式,结合Prometheus监控API调用频率,识别异常流量。安全漏洞与未经授权访问风险47Ollama常见问题 问题描述 Ollama版本升级后模型仅运行在CPU,或量化精度丢失导致回答质量下降。解决方案 锁定依赖版本:通过Docker镜像固定Ollama版本(如ollama/ollama:0.5.1-cuda),避免自动升级引入兼容性问题。显存分配验证:使用nvidia-smi监控GPU利用率,若发现异常回退至CPU,检查CUDA驱动版本与Ollama编译环境的兼容性。模型升

    42、级后性能退化问题48前端展示构建多形态接入方案:PageAssist实现网页即时问答,Chatbox支持Markdown渲染,Open WebUI 提供企业权限管理。0201环境准备模型部署0349”特点:实时对话交互,多模型切换,聊天历史管理,网页内容交互,支持多种文档格式。优点:功能实用,隐私保护,所有交互在本地完成。缺点:功能较为基础,可能无法满足复杂需求。适用场景:适合需要与网页内容交互、管理聊天历史的用户。特点:浏览器插件,支持PDF对话、网络搜索集成,与对象存储、Cloud Studio无缝集成。优点:轻量级,安装方便,与网页内容紧密结合。缺点:功能相对基础,对于不常使用网页交互的

    43、用户优势不明显。适用场景:适合需要与网页内容紧密结合、进行针对性AI交互的用户。特点:多功能聊天系统,支持Gmail集成、谷歌搜索增强、上下文网站交互。优点:功能丰富,AI交互体验全面,适用于多种场景。缺点:部分功能(如实时搜索)可能处于维护状态,对不熟悉Gmail和谷歌搜索的用户实用性降低。适用场景:适合需要邮件处理、搜索增强功能的用户。Orian(Ollama WebUI)Page Assistollama-ui浏览器插件50Enchanted LLM特点:MacOS原生应用,支持多种私人托管模型,界面简洁直观。适用场景:适合MacOS用户,需要本地运行多种模型。Chatbox特点:跨平台

    44、开源客户端应用,支持Windows、MacOS、Linux、iOS和Android,支持多种大语言模型。适用场景:适合跨平台使用,需要多种模型支持的用户。LLocal.in特点:跨平台完全开源的客户端,用于利用本地运行的大型语言模型,Electron桌面客户端,易于使用。适用场景:适合需要本地运行模型、跨平台使用的用户。Ollama App特点:现代且易于使用的多平台客户端,支持Ollama。适用场景:适合需要简洁界面、多平台支持的用户。桌面应用51特点:基于Web的界面,方便用户与Ollama模型进行交互。适用场景:适合需要通过Web界面与模型交互的用户。项目地址:https:/ WebUI

    45、特点:专为Ollama设计的极简主义用户界面,界面美观。适用场景:适合追求简约风格的用户。项目地址:https:/ Ollama LLM UI特点:使用HyperDiv反应式UI的Ollama基本聊天界面。适用场景:适合需要简单聊天界面的用户。Ollama Basic ChatWeb服务52终端工具 特点:Ollama提供了多种终端工具,如oterm、ollama.nvim等,方便开发者在终端中使用Ollama。适用场景:适合开发者,需要在终端中快速使用Ollama。云服务 特点:Ollama支持在Google Cloud、Fly.io、Koyeb等云平台上部署。适用场景:适合需要在云端部署模

    46、型的用户。0102其他53 设置API代理:在设置菜单中,配置API代理,连接到不同的AI模型和服务提供者。管理和调试Prompt:使用Chatbox提供的工具设计和调整Prompt,以获得最佳的AI交互体验。保存聊天记录:所有聊天记录和Prompt会自动保存在本地。多平台同步:通过登录账号,可在不同设备上同步数据。适用场景:适合需要多平台使用、管理聊天记录的用户。其他设置Chatbox-安装 访问Chatbox AI官网,根据设备选择版本下载并安装,安装完成后启动应用。适用场景:适合跨平台使用,需要多种模型支持的用户。下载与安装 使用本地模型:打开Chatbox软件,点击左下角齿轮图标进入设

    47、置,选择模型提供方为Ollama,API域名自动填充为http:/localhost:11434,选择对应模型,点击保存。使用在线API:以接入硅基流动的DeepSeek-R1为例,选择SiliconFlow API,粘贴API密钥,选择DeepSeek-R1模型。适用场景:适合需要快速切换本地和在线模型的用户。配置模型 与文档和图片聊天,代码生成与预览,实时联网搜索与查询,AI生成的图表可视化,AI驱动的图像生成,LaTeX和Markdown渲染使用功能54Chatbox-界面温度设置建议:代码生成/数学解题-0.0数据抽取/分析-1.0通用对话-1.3翻译-1.3创意类写作/诗歌创作-1.

    48、555 打开侧边栏:安装完成后,通过右键菜单或快捷键(默认为Ctrl+Shift+P)打开侧边栏。在侧边栏中,可以与本地AI模型进行对话,获取网页内容的相关信息。使用Web UI:点击扩展图标,会在新标签页中打开Web UI。在Web UI中,可以像使用ChatGPT一样与AI模型进行对话。配置本地AI模型:首次使用时,需要配置本地AI模型,目前支持Ollama和Chrome AI(Gemini Nano)等本地AI提供商。选择指定的模型后,即可开始与模型进行交互。其他功能:网页内容对话、文档解析、联网搜索、语言设置。适用场景:适合需要与网页内容紧密结合、进行针对性AI交互的用户。使用方法02

    49、打开Chrome Web Store搜索“Page Assist”点击“添加到Chrome”按钮安装方法01Open WebUIPage Assist-安装56Open WebUIPage Assist-界面57使用方法运行Open WebUI,使用以下命令:无GPU加速:dockerrun-d-p3000:8080-add-host=host.docker.internal:host-gateway-vopen-webui:/app/backend/data-name open-webui-restart always ghcr.io/open-webui/open-webui:main使

    50、用 GPU 加 速:docker run-d-p3000:8080-gpusall-add-host=host.docker.internal:host-gateway-vopen-webui:/app/backend/data-name open-webui-restart always ghcr.io/open-webui/open-webui:cuda安装方法OpenWebui-安装访问Open WebUI:安装完成后,打开浏览器访问http:/localhost:3000。配置AI模型:选择支持的LLM运行器(如Ollama或OpenAI API),可以配置自定义OpenAI API

    51、URL,连接到其他兼容的API服务。58OpenWebui-界面OpenWebUI 支持多模态交互、本地模型与云端 API 混合部署,并深度集成RAG 知识库和外部工具,相较于 Page Assist 等单一功能插件,其开源可定制、支持企业级多用户管理及全栈 AI 工作流扩展的特性,更适合开发者构建私有化复杂应用。59Open WebUI三款界面总结 PageAssist以浏览器插件形态实现本地AI与浏览场景的无缝融合,强调隐私优先和轻量交互,通过侧边栏对话、文档解析等能力将模型能力嵌入用户日常操作,适合注重数据安全的高频轻需求场景。Chatbox定位灵活的中台调度工具,以模块化设计兼容多模型

    52、API和插件扩展,平衡开发者的自定义需求与普通用户的易用性,适用于需要多模型协同或快速验证AI能力的场景。Open WebUI聚焦企业级AI服务全生命周期管理,从模型部署、权限控制到知识库集成提供闭环方案,通过负载均衡、协作聊天等特性满足规模化团队的技术管控需求。60企 业 部 署 D e e p S e e kE n t e r p r i s ed e p l o y m e n tPART 0361611.Ollma框架适合个人用户私有化本地部署,但在多用户并发场景下性能衰减明显。这一部分我们将尽可能简单地介绍企业级私有化部署的方案和探索实践,普通用户可以了解即可。2.企业级生产环境推荐

    53、使用Transformers来快速验证模型能力,使用vLLM框架借助PagedAttention技术实现24倍于Transformers的吞吐量实现大模型的高效推理,针对不同企业场景,则提供不同的企业级部署方案,我们也会分享服务器配置、性能数据及报价参考等实战经验,且深度分析业务场景的适配性,给予参考帮助。3.同时,针对近期出现的KTransformers、Unsloth等多套低成本动态量化模型的DeepSeek部署解决方案。虽然不够成熟也无法投入实际生产使用,但我们也会用一定的篇幅分享我们的研究实践和经验。62Transformers简介 Transformers 提供了可以轻松地下载并且训

    54、练先进的预训练模型的 API 和工具。使用预训练模型可以减少计算消耗和碳排放,并且节省从头训练所需要的时间和资源。这些模型支持不同模态中的常见任务,比如:自然语言处理:文本分类、命名实体识别、问答、语言建模、摘要、翻译、多项选择和文本生成。机器视觉:图像分类、目标检测和语义分割。音频:自动语音识别和音频分类。多模态:表格问答、光学字符识别、从扫描文档提取信息、视频分类和视觉问答。Transformers 支持在 PyTorch、TensorFlow 和 JAX 上的互操作性。这给在模型的每个阶段使用不同的框架带来了灵活性;在一个框架中使用几行代码训练一个模型,然后在另一个框架中加载它并进行推理

    55、。模型也可以被导出为 ONNX 和 TorchScript 格式,用于在生产环境中部署。63Transformers部署模型 3-1 步骤一:安装相关依赖包 步骤二:加载模型pip install torchpip install transformers accelerate bitsandbytesfrom transformers import AutoModelForCausalLM,AutoTokenizermodel_path=deepseek-ai/deepseek-r1-distill-qwen-7btokenizer=AutoTokenizer.from_pretrained

    56、(model_path)model=AutoModelForCausalLM.from_pretrained(model_path,device_map=auto,torch_dtype=auto)load_in_8bit=True,#可以添加参数来启用8bit量化64Transformers部署模型 3-264/41 步骤三:运行模型prompt=你是一个人工智能助手解释量子计算inputs=tokenizer(prompt,return_tensors=pt).to(model.device)outputs=model.generate(*inputs,max_new_tokens=256

    57、,do_sample=True,temperature=0.7,repetition_penalty=1.05)print(tokenizer.decode(outputs0)65Transformers部署模型 3-3 步骤四:其他框架调用#pip install gradioimport gradio as grdef generate(text):inputs=tokenizer(text,return_tensors=pt).to(model.device)outputs=model.generate(*inputs,max_new_tokens=256)return tokenize

    58、r.decode(outputs0,skip_special_tokens=True)gr.Interface(fn=generate,inputs=gr.Textbox(lines=5,label=输入),outputs=gr.Textbox(label=输出).launch(server_name=0.0.0.0,server_port=6006)这里选择了gradio框架,可以快速启动一个前端界面,实战中可以选择配合业务逻辑进行调用66生成时常用参数 2-1参数名称含义注意事项inputs输入的文本或编码后的 input_ids,用于生成文本的起始部分如果传入 inputs_embeds

    59、,则不能同时传入 inputsinput_ids与 inputs 类似,但通常用于直接传入编码后的输入如果传入 inputs_embeds,则不能同时传入 input_idsinputs_embeds输入的嵌入向量,通常用于 encoder-decoder 模型不能同时传入 input_ids 或 inputsmax_length生成文本的最大长度(包括输入部分)如果同时设置 max_new_tokens,max_new_tokens 优先max_new_tokens生成的新 token 数量(不包括输入部分)如果同时设置 max_length,max_new_tokens 优先min_len

    60、gth生成文本的最小长度(包括输入部分)如果同时设置 min_new_tokens,min_new_tokens 优先min_new_tokens生成的新 token 的最小数量(不包括输入部分)如果同时设置 min_length,min_new_tokens 优先num_beamsBeam search 中的 beam 数量,用于控制生成的多样性值越大,生成结果越多样,但计算成本越高do_sample是否启用随机采样生成文本如果为 True,则生成结果会更随机;如果为 False,则使用贪婪解码或 beam searchtemperature控制生成文本的随机性值越高,生成结果越随机;值越低

    61、,生成结果越确定top_k在随机采样中,只从概率最高的 k 个 token 中采样值越大,生成结果越多样,但可能引入噪声top_p在随机采样中,只从累积概率大于 p 的 token 中采样值越小,生成结果越集中于高概率 token67生成时常用参数 2-2参数名称含义注意事项early_stopping是否在达到 max_length 或 max_new_tokens 之前提前停止生成如果为 True,则可能生成较短的文本eos_token_id结束生成的 token ID如果生成到该 token,生成过程会停止pad_token_id填充 token 的 ID用于处理输入和输出的填充部分bo

    62、s_token_id开始生成的 token ID如果未指定输入,会用此 token 开始生成use_cache是否使用缓存机制(如 kv-cache)加速生成如果为 True,可以显著提高生成速度,但需要更多的内存output_scores是否输出生成 token 的概率分数如果为 True,会返回每个生成 token 的概率分数return_dict_in_generate是否以字典形式返回生成结果如果为 True,返回值会包含更多详细信息,如生成的token IDs 和概率分数68vLLM简介 vLLM 是由加州大学伯克利分校 LMSYS 组织开源的大语言模型(LLM)高速推理框架。它旨在

    63、显著提升实时场景下语言模型服务的吞吐量和内存使用效率。vLLM 的主要特点包括:1.PagedAttention 技术:vLLM 引入了 PagedAttention 算法,通过分页管理注意力机制中的键(keys)和值(values),有效解决了传统方法中显存碎片化和过度预留的问题。2.显著的性能提升:与 Hugging Face 的 Transformers 相比,vLLM 的吞吐量最高可达 24 倍。3.与 Hugging Face 的无缝集成:vLLM 可以与 Hugging Face 的 Transformers 库无缝对接,用户可以轻松地在现有模型基础上进行推理加速。4.支持多种推理

    64、场景:vLLM 支持离线推理、在线 API 服务,以及与 OpenAI API 兼容的接口。vLLM 的这些特性使其成为大语言模型推理加速的重要工具,尤其适用于需要高效资源利用和快速响应的场景。vLLM部署简单,更适合中小型企业做大模型推理部署,对于大型企业,可以使用配置较为复杂的Tensor RT框架69vLLM部署模型 2-1 步骤一:安装相关依赖包 步骤二:加载并启动模型pip install vllmpython-m vllm.entrypoints.openai.api_server-model/root/autodl-tmp/models/deepseek-ai/DeepSeek-

    65、R1-Distill-Qwen-7B-served-model-name deepseek-r1-7b-host 0.0.0.0-port 6006-tensor-parallel-size 1-gpu-memory-utilization 0.9-dtype=half70vLLM部署模型 2-2这个参数的作用控制是模型在 GPU 上的显存占用量。如果你的显存不足,可以通过降低-gpu-memory-utilization 的值来减少显存占用,从而避免出现 CUDA out of memory 的错误vLLM启动后,提供了一个API调用URL,可以通过访问h ttp:/0.0.0.0:6006

    66、/docs 来查看 API 文档,进而通过API来调用内部的大模型71vLLM参数说明 2-1参数名称含义常见值/范围注意事项-model指定模型的路径或名称模型文件路径或预训练模型名称确保路径正确且模型文件完整-served-model-name指定服务中暴露的模型名称自定义名称用于客户端请求时指定模型-host服务绑定的主机地址0.0.0.0 或 127.0.0.1 等0.0.0.0 表示监听所有网络接口,127.0.0.1 仅监听本地接口-port服务监听的端口号1024-65535 之间的整数确保端口未被占用-tensor-parallel-size模型的张量并行大小正整数(通常为 G

    67、PU 数量)用于分布式推理,需确保 GPU 资源充足-gpu-memory-utilizationGPU 内存利用率。0 到 1 之间的小数(如 0.9 表示 90%)调整显存占用比例以避免显存不足错误-dtype模型数据类型auto、half、float16、bfloat16、float32 等half 或 float16 可减少显存占用,但可能影响精度-max-model-len模型支持的最大输入长度正整数(如 2048)根据模型能力和硬件资源调整-swap-space用于交换空间的显存大小(单位:GB)正整数用于缓解显存不足,但可能降低推理速度-cpu-offload-gbCPU 卸载的

    68、显存大小(单位:GB)正整数将部分模型数据卸载到 CPU 内存,需确保CPU 内存充足72vLLM参数说明 2-2参数名称含义常见值/范围注意事项-max-num-batched-tokens每批次最大 token 数量正整数调整以优化推理速度和资源利用率-max-num-seqs每批次最大序列数量正整数调整以优化推理速度和资源利用率-quantization模型量化方法None、fp8、bfloat16、gptq 等量化可减少显存占用,但可能影响精度-tokenizer指定分词器分词器路径或名称确保与模型兼容-tokenizer-mode分词器模式auto、slow、mistral、cust

    69、om 等根据需求选择分词器模式-load-format模型加载格式auto、pt、safetensors、gguf 等根据模型文件格式选择加载方式-revision模型版本版本号或分支名称仅在使用 Hugging Face 模型时适用-trust-remote-code是否信任远程代码True 或 False启用时需注意安全性-enable-lora是否启用 LoRA(Low-Rank Adaptation)True 或 False用于模型微调,需指定 LoRA 模块-enable-prompt-adapter是否启用提示适配器True 或 False用于自定义提示词,需指定适配器配置73vL

    70、LM实际并发性能测试设备模型上下文并发循环次数速率(tokens/s)显存(GB)请求超时个数V100(32GB)*1DeepSeek-R1-Distill-Qwen-7B2048162482.330.40V100(32GB)*1DeepSeek-R1-Distill-Qwen-7B4096162435.730.41V100(32GB)*1DeepSeek-R1-Distill-Qwen-7B8192162402.130.412V100(32GB)*1DeepSeek-R1-Distill-Qwen-7B81921142.530.40设备模型上下文并发循环次数速率(tokens/s)显存(GB

    71、)请求超时个数V100(32GB)*2DeepSeek-R1-Distill-Qwen-14B2048162462.360.10V100(32GB)*2DeepSeek-R1-Distill-Qwen-14B4096162372.460.112V100(32GB)*2DeepSeek-R1-Distill-Qwen-14B8192162293.260.123V100(32GB)*2DeepSeek-R1-Distill-Qwen-14B81921137.560.107B并发测试14B并发测试74vLLM常见问题及解决方案注意力机制与PagedAttention兼容性问题 问题场景:模型使用相对

    72、位置编码(如RoPE)或稀疏注意力模式时,vLLM的PagedAttention出现位置偏移错误 长序列推理时缓存命中率低于预期 优化策略:自定义Attention Kernel:缓存策略调优:from vllm._C import opsops.paged_attention_v2(query,key,value,position_offsets,#注入自定义位置编码block_tables,context_len,rotary_dim=64)#启动参数调整-block_size 32#根据序列长度分布调整块大小-gpu_memory_utilization 0.9575企业级70B模型部署

    73、案例分享-1vllm serve/ai/models/DeepSeek-R1-Distill-Llama-70B-max-model-len 8192-port 5000-tensor-parallel-size 8-dtype auto-gpu-memory-utilization 0.8-served-model-name DeepSeek-R1-Distill-Llama-70BvLLM启动命令企业场景企业(向量智能)内部应用案例,为各个部门提供Ai能力,为各部门建立知识库和应用集成,提高企业内部的工作效率等。CPU:双路64核心,共128线程)RAM:512G内存DISK:2T【RAI

    74、D5磁盘阵列】GPU:8卡4090【192G显存】Network:万兆双网卡(公司内部为千兆带宽)服务器配置Python Env:Anaconda3Python Version:3.11.11Torch Version:pytorch2.6.0推理框架:vLLM生产环境采用vLLM的高性能部署方案采用半精度的方式运行DeepSeek-R1-Distill-Llama-70B部署方案76企业级70B模型部署案例分享-2初始化算力(8卡4090)的GPU状态经验分享8卡4090 不足以支持float32精度运行可支持float16和bfloat16精度10并发下4090功率达到300左右10并发G

    75、PU显存使用量稳定在21-22G10并发下每秒15-40 Tokens总结此配置的服务器支持百人团队的日常使用7777随着 DeepSeek 的爆火,低成本实现更好模型性能的部署方式受到广泛关注,目前出现了KTransformers、Unsloth等多套解决方案。我们通过实践发现,现有的低成本部署方案尚不足以满足企业级应用需求,仍处于研究阶段,更适合个人或小团队用于研究参考,其重点在于探索在成本效益下实现部署,最大优势是显著节约成本。下面我们将对于这些解决方案分别进行数据和经验分享。注意:后面这一部分低成本部署DeepSeek的内容(约30页),也是在快速严谨和变化的技术内容,目标是让大家简单

    76、了解这种低成本部署方案,不是了解DeepSeek本地化部署必须掌握的内容。78部署方案简介DeepSeek R1模型就成了很多应用场景下的当务之急。受限于DeepSeekR1 671B(6710亿参数)的模型规模,通常情况下部署Deepseek R1满血版模型需要1200G左右显存(考虑百人内并发情况),需要双节点8卡H100服务器才能运行(总成本约在260万-320万左右),即便是INT4半精度下,也至少需要490G显存,需要单节点8卡H100服务器才能运行。为了实现低成本DeepSeek R1模型的高性能部署,目前大多数方案都采用了牺牲模型推理速度的策略。使用CPU+GPU混合推理的方式,

    77、将一部分推理计算转移到CPU上,降低GPU的负载。由于CPU并不适合深度学习计算,导致模型整体推理速度较慢。R1满血版模型部署方案79部署方案简介借助llama.cpp,可以使用纯CPU模式来运行DeepSeek R1模型,但需要大量的内存来加载模型权重,并且运行速度非常慢,即使是志强4代这种较强性能的CPU,DeepSeek R1 Q4_K_M模型推理速度也只有4tokens/s左右。而且并发性能较差,一个400字的小作文,就得写个2、3分钟。方案特点2023年3月,即Llama第一代模型开源不久,GeorgiGerganov在GitHub上发起了一个名为llama.cpp的项目,该项目用C

    78、语言编写深度学习底层张量计算库,极大程度降低了大模型等深度学习算法的计算门槛,并最终使得大模型可以在消费级CPU上运行。目前该项目已成为大模型量化的标准解决方案,DeepSeek R1模型的Q2、Q4、Q8等模型量化都是借助llama.cpp完成。项目地址:https:/ Transformers)项目是清华大学发起的,可以借助R1模型的MoE架构特性,将专家模型的权重加载到内存上,并分配CPU完成相关计算工作,同时将MLA/KVCache加载到GPU上,进而实现CPU+GPU混合推理,这样就达到了最大化降低显存占用的目的。项目地址:https:/ DDR5内存14Llama.cpp纯CPU推

    79、理480G内存+4卡4090服务器仅CPU推理3.23Llama.cppCPU+GPU推理(单卡4090)单卡4090占用显存约23G3.65Llama.cppCPU+GPU推理(4卡4090)4卡4090占用显存约92G5.78Llama.cpp纯GPU推理(4卡H800)4卡H800,320G总显存占用显存约140G20.93Ollama纯GPU推理(单卡4090)单卡40905.97Ollama纯GPU推理(双卡A100)双卡A1002083部署方案总结针对之前提到的三种DeepSeek满血版低成本部署方案,北大AI肖睿团队评价结论是:这些方案主要聚焦于探索如何在保持成本效益的同时实现模

    80、型部署。它们的最大亮点在于显著的成本节约。然而,从刚刚的方案性能测评总结中可以看出,就当前的技术水平而言,这三种方案在考虑并发处理能力、推理速度以及推理准确性等方面,尚不足以满足企业级应用的要求。因此,它们更适合用于个人或小团队对低成本部署策略的研究与参考。此外,量化模型的推理效果与DeepSeek官方发布的模型相比仍存在一定差距。在实际的企业级部署中,建议选用如vLLM、Tensor RT等更为成熟的推理框架。特别是对于方案二中提到的KTransformers框架,实际部署时对环境要求极为严格。从该项目的更新日志来看,项目仍处于初始阶段,相较于vLLM等成熟的推理框架,其发展速度较慢,更像是

    81、一个年久失修的项目。尽管如此,我们对低成本部署大模型的未来发展持乐观态度,相信在不久的将来,这一领域将取得显著进展,达到企业实际应用的要求标准。方案总结84方案实现硬件环境配置 深度学习环境:PyTorch 2.5.0、Python 3.12(ubuntu22.04)、Cuda 12.4 硬件环境:GPU:RTX4090(24GB)*4(实际只使用一张GPU)CPU:64 vCPU Intel(R)Xeon(R)Gold 6430 内存:480G(至少需要382G)硬盘:550G(实际使用需要380G左右)本部分所介绍的所有方案均在AutoDL服务器上实现和运行 由于AutoDL为虚拟化环境,

    82、性能方面会受影响。AutoDL地址:https:/ R1模型的多个版本,除了Unsloth提供的4 个动态量化版本,还包含了Q2、Q4、Q8等多个版本的量化模型文件,大家可以根据需要自行加载。Unsloth团队DeepSeek R1模型的ModelScope地址:https:/ install modelscope安装modelscope的SDKfrom modelscope import snapshot_downloadsnapshot_download(repo_id=unsloth/DeepSeek-R1-GGUF,local_dir=DeepSeek-R1-GGUF,allow_pa

    83、tterns=*UD-IQ1_S*#Select quant type UD-IQ1_S for 1.58bit)运行python代码ModelScope提供了多种下载方式这里演示SDK下载。首先,需要在本地环境中安装ModelScope的SDK包,之后运行下列的python代码。如需下载不同版本的R1模型,修改allow_patterns参数即可。下载过程较为缓慢,需要耐心等待。87方案一、llama.cpp由于llama.cpp是个C语言项目,实际调用过程需要先构建项目,再设置参数进行编译,然后创建可执行文件(类似于脚本),再运行本地大模型。借助llama.cpp和Unsloth的模型权重

    84、,可以实现纯CPU推理、纯GPU推理和CPU+GPU混合推理。这里我们尝试纯CPU运行模式。项目主页:https:/ updateapt-get install build-essential cmake curl libcur14-openss1-dev-y#注:C语言项目在运行前需要对项目进行代码编译,这里安装的了项目创建和代码编译的相关依赖。其中,cmake为跨平台构建工具,用于管理项目的编译过程。安装步骤#步骤二:llama.cpp源码下载git clone https:/ https:/ llama.cpp/build/bin/llama-*llama.cpp安装步骤#步骤三:项目构

    85、建与编译cmake llama.cpp-B llama.cpp/build-DBUILD SHARED LIBS=OFF-DGGML_CUDA=ON-DLLAMA_CURL=ONcmake-build llama.cpp/build-config Release-j-clean-first-target llama-quantize llama-cli llama-gguf-split方案一、llama.cpp步骤三核心参数说明:cmake:运行 CMake 工具,用于配置和生成构建文件。llama.cpp:指定项目的源代码所在的目录。在这个例子中,llama.cpp 是项目的根目录。-B l

    86、lama.cpp/build:指定生成构建文件的目录。-B 参数表示构建目录,这是 CMake 将生成的文件存放的地方(例如Makefile 或 Ninja 构建文件)。-config:指定构建的配置为 Release 配置,目的是启用优化配置,加快构建后程序的运行速度。-clean-first:表示在构建之前先清理掉之前的构建结果。这可以确保每次构建时都是从一个干净的状态开始,避免由于缓存或中间文件引起的编译错误。-target:指定构建的目标(target)。通常,一个项目会定义多个目标(比如库、可执行文件等),通过这个参数可以告诉CMake 只编译特定的目标。这里将可执行文件复制到根目录

    87、是为了更方便地在根目录下执行90cd llama.cpp./llama-cli-model/root/autodl-tmp/Deepseek-R1-GGUF/Deepseek-R1-UD-IQ1_S/DeepSeek-R1-UD-IQ1_S-00001-0f-00003.gguf-cache-type-k q4_0-threads 64-prio 2-temp 0.6-ctx-size 512-seed 3407-n-gpu-layers 0-no-cnv-prompt 你好,好久不见,请介绍下你自己。推理步骤核心参数说明:-cache-type-k:K缓存量化为4bit-threads:CP

    88、U核心数-temp:模型温度参数,控制生成随机性-ctx-size:输出上下文长度-seed:随机数种子-n-gpu-layers:控制GPU中的模型层数,为0时则代表完全用CPU推理-no-cnv:不进行多轮对话方案一、llama.cpp9191为了尝试CPU+GPU混合推理,只需要合理的设置-n-gpu-layers 参数,参数大小可以根据下图的公式确定,即可灵活的将模型的部分层加载到GPU上进行运行。并且无需手动设置,llama.cpp会自动识别当前GPU数量以及可以分配的显存,自动将模型权重加载到各个不同的GPU上。详细参数可以参考下表。-n-gpu-layers参数设置方案一、lla

    89、ma.cppQuant文件大小24GB GPU80GBGPU2x80GB GPU1.58bit131733611.73bit158526572.22bit183422492.51bit2122193292方案一、llama.cpp三种推理方式测试结果1.纯CPU推理测试:在这种模式下,系统完全依赖内存和CPU进行计算,不使用GPU加速。本次测试使用的服务器配置为480GB内存和4卡4090显卡,但GPU不参与计算。在高并发场景下,内存占用最高可达到约180GB。在这种配置下,生成token的速度为每秒3.23个token。2.CPU+GPU混合推理:只需要合理设置-n-gpu-layers 参

    90、数,就可以灵活地将模型的部分层加载到GPU上运行。这个过程不需要手动配置,因为 llama.cpp 会自动识别当前GPU的数量以及可用的显存,并将模型权重自动分配到不同的GPU上。在单卡4090设备上运行时,GPU能够容纳大约7层的模型权重,生成速度为每秒3.65个token,总共占用显存23GB。3.将更多的模型权重加载到GPU进行推理:以4卡4090服务器为例,总显存为96GB。根据计算公式,这时每个GPU可以容纳大约39层的模型权重。与单卡24GB显存相比,生成token的速度提高到了每秒5.78个token,同时占用的显存约为92GB。93方案二、KTransformers配置文件下载

    91、在开始部署KTransformer之前,需要注意的是,Unsloth团队提供的只有模型权重,进行模型推理还需要下载DeepSeek官方提供的分词器等模型配置文件。配置文件地址:https:/ download-model deepseek-ai/DeepSeek-R1 README.md.gitattributes config.json configuration_deepseek.py generation_config.json LICENSE model.safetensors.index.json modeling_deepseek.py tokenizer.json tokeniz

    92、er_config.json -local_dir/root/autodl-tmp/DeepSeek-R1-GGUF/R1_config核心参数说明:-model:指定modelscope的下载文件路径下及下载内容,这里我们下载了deepseek-ai/DeepSeek-R1路径下除模型权重外的模型配置文件-local_dir:设置下载文件的存放位置94准备好模型权重和DeepSeek R1模型配置文件之后,即可开始部署KTransformer,本次部署DeepSeek R1 Q4_K_M模型。该项目部署流程非常复杂,请务必每一步都顺利完成后,再执行下一步。项目主页:https:/ CPU。但

    93、版本间实际部署流程和调用指令没有区别,本方案以适配性较好的V2.0版本进行演示。方案二、KTransformers 95。安装步骤一:安装依赖一、安装gcc、cmake等基础库包:apt-get updateapt-get install gcc g+cmake ninja-build二、安装PyTorch、flash-attn等库包pip install torch=2.5.0 packaging ninja cpufeaturenumpypip install flash-attn三、安装libstdc:sudo add-apt-repository ppa:ubuntu-toolchai

    94、n-r/testsudo apt-get updatesudo apt-get install-only-upgrade libstdc+6conda install-c conda-forge libstdcxx-ng核心安装步骤说明:apt-get update:更新软件包列表,确保获取最新的软件包信息。apt-get install gcc g+cmake ninja-build:安装编译器(gcc和g+),CMake构建系统,以及Ninja构建工具。这些都是开发过程中常用的工具。sudo apt-get install-only-upgrade libstdc+6:仅升级libstdc

    95、+6库,它是GNU标准C+库的一部分,提供了C+程序运行时支持。方案二、KTransformers 96。安装步骤二:拉取代码及编译四、拉取KTransformers项目代码:git clone https:/ ktransformersgit submodule initgit submodule update五、根据CPU类型,如果是64核双槽版本,则需要运行命令,且该命令只需要在编译时运行一次即可:export USE_NUMA=1例如,CPU:64 vCPU Interl(R)Xeon(R)Gold 6430 代表的就是64核双槽CPU。六、开始编译:sh./install.sh 或者

    96、 bash install.sh七、查看安装情况:pip show ktransformers方案二、KTransformers 此处编译过程耗费时间较长,需要耐心等待。如果因为网络问题拉取缓慢,可以直接打开链接将项目下载下来,再上传服务器。如果CPU类型是双槽版本而未执行,后续代码步骤可能会报错,此时再次执行该命令即可运行后续命令。97安装步骤三:运行模型八、运行模型:python./ktransformers/local_chat.py-model_path/root/autodl-tmp/DeepSeek-R1-GGUF/R1_config-gguf_path/root/autodl-t

    97、mp/DeepSeek-R1-GGUF -cpu_infer 65-max_new_tokens 1000-force_think true方案二、KTransformers 核心参数说明:./ktransformers/local_chat.py:调用官方提供的最简单的对话脚本。-model_path:设置为前文下载好的配置文件路径,也可以是来自Hugging Face 的在线路径(如 deepseek-ai/DeepSeek-V3)。-gguf_path:模型路径地址,建议下载并量化模型以满足需求(注意,这是目录路径)。-max_new_tokens:1000 是最大输出token长度。如

    98、果发现答案被截断,可以增加该值以获得更长的答案,但设置过大会导致爆显存(OOM)问题,并且可能减慢生成速度。-force_think true:输出R1模型的推理思维链。-cpu_infer 65:若是单槽版本CPU,则不用输入参数。启动过程需要加载61层模型权重参数,耐心等待。官方提供的对话脚本默认输出响应速度。9898单并发实测效果方案二、KTransformers 在配置:64 vCPU Interl(R)Xeon(R)Gold 6430;4x4090(24G)下,生成token速度为8.15tokens/s,推理时占用显存11G99单并发实测效果在配置:64 vCPU Interl(R

    99、)Xeon(R)Gold 6430;4x4090(24G)下,生成token速度为8.73tokens/s,推理时占用显存11G方案二、KTransformers 100KT部署需要注意的问题 深度学习环境严格要求:该项目对环境要求苛刻,例如,torch版本不一致的话可能会导致后续依赖库安装出现问题,我们的环境版本为:Pytorch 2.5.0、Python 3.12、CUDA12.4。硬件要求:该实测是在RTX 4090(24GB)*4(实际只用1张),64 vCPU Intel(R)Xeon(R)Gold 6430下进行的,在使用Q4量化版本的R1时,最少需要保证有20G以上的显存和382

    100、G的CPU内存。Ktransformer目前有多个版本:V2.0,V2.1,V3.0。本实验采用的是V2.1版本,不同版本差异较大,请注意辨别。在安装依赖的过程中要注意安装依赖库的先后的顺序,否则会导致其他依赖库无法安装的问题,例如flash-attn在安装过程中遇到的(“Building wheel for flash-attn(setup.py).error error:subprocess-exited-with-error”)在git初始化的时候:git submodule init 若出现初始化失败报错的情况,尝试git clone KT官网的链接。在运行sh./install.sh

    101、 安装运行脚本时,可能会需要等待较长时间(Building wheels for collected packages:ktransformers Building wheel for ktransformers(pyproject.toml).|)方案二、KTransformers 101方案三、Unsloth动态量化+Ollama本部分内容详细介绍如何通过llama.cpp工具合并Unsloth动态量化模型的权重文件,并借助Ollama工具进行模型注册与调用。通过合并权重文件,解决了Ollama对单文件支持的限制;通过Ollama的高效管理与推理接口,实现了模型的快速部署与性能验证。这一流

    102、程为Unsloth动态量化模型的本地部署提供了完整的解决方案。在实际应用中,用户可以根据硬件配置和需求,灵活调整模型参数,以优化推理速度和资源利用率。102方案三、Unsloth动态量化+Ollama在部署Unsloth动态量化模型时,模型权重通常以分片形式存储,例如,DeepSeek-R1-UD-IQ1_S模型的权重可能分为多个文件,每个文件包含模型的部分权重。然而,Ollama仅支持单个GGUF格式的模型权重文件,而Unsloth动态量化模型的权重通常以分片形式存储。为了使Ollama能够加载和管理这些模型,必须将分片的权重文件合并为一个完整的GGUF文件。这一过程不仅确保了模型的完整性,

    103、还为后续的推理任务提供了基础支持。这一过程通过llama.cpp工具完成,确保模型能够高效地被Ollama管理并用于推理任务。合并步骤包括准备权重文件、执行合并命令以及验证合并结果。ollama的下载与llama.cpp的下载可以参考前文。权重文件合并103方案三、Unsloth动态量化+Ollama 使用llama.cpp提供的llama-gguf-split工具执行权重合并操作。该工具能够将分片的权重文件合并为一个完整的GGUF文件。具体命令如下:该命令将指定路径下的分片权重文件合并为merged_file.gguf,并保存至当前目录。在执行命令时,需要注意以下几点:1.确保路径正确无误,

    104、避免因路径错误导致文件无法找到。2.如果在合并过程中遇到权限问题,可以尝试使用sudo命令提升权限。3.合并过程可能需要一定时间,具体取决于文件大小和系统性能。mkdir DeepSeek-R1-UD-IQ1_S-mergecd./llama.cpp./llama-gguf-split-merge/root/autodl-tmp/DeepSeek-R1-GGUF/DeepSeek-R1-UD_x0002_IQ1_S/DeepSeek-R1-UD-IQ1_S-00001-of-00003.gguf merged_file.gguf权重文件合并104方案三、Unsloth动态量化+Ollama在完

    105、成模型权重合并后,下一步是将合并后的模型注册到Ollama中,并通过Ollama进行调用。Ollama提供了便捷的模型管理与推理接口,能够高效地加载和运行动态量化模型。Ollama支持多种模型格式,并提供了丰富的配置选项,用于优化模型性能。通过Ollama,用户可以轻松地管理多个模型,并在本地环境中进行高效的推理任务。借助Ollama调用动态量化模型105方案三、Unsloth动态量化+Ollama 为了将合并后的模型注册到Ollama中,需要创建一个模型配置文件(如DeepSeekQ1_Modelfile)。该文件包含模型的基本参数和运行配置,用于指导Ollama如何加载和运行模型。配置文件

    106、的格式如下:其中:FROM:指定合并后的模型文件路径。PARAMETER num_gpu:指定加载到GPU的层数。该参数根据硬件配置调整,例如单卡4090 GPU可以设置为7层。PARAMETER num_ctx:指定生成的最大token数。该参数决定了模型推理时的最大上下文长度。PARAMETER temperature:指定模型温度参数,用于控制生成结果的随机性。TEMPLATE:指定模型提示词模板,用于定义用户输入和模型输出的格式。FROM./merged_file.ggufPARAMETER num_gpu 7PARAMETER num_ctx 2048PARAMETER temper

    107、ature 0.6TEMPLATE .System .Prompt 创建Ollama模型配置文件106方案三、Unsloth动态量化+Ollama 使用以下命令将合并后的模型注册到Ollama中:该命令将模型DeepSeek-R1-UD-IQ1_M注册到Ollama,并加载配置文件DeepSeekQ1_Modelfile。注册完成后,可以通过以下命令查看模型是否成功注册:如果模型注册成功,Ollama将显示模型名称、路径和相关参数。注册过程中需要注意以下几点:1.确保配置文件路径正确无误。如果路径错误,Ollama将无法加载模型。2.如果模型已存在,可以使用-overwrite选项覆盖旧模型:

    108、确认无误后即可运行模型ollama create DeepSeek-R1-UD-IQ1_M-f DeepSeekQ1_Modelfileollama listollama create DeepSeek-R1-UD-IQ1_M-f DeepSeekQ1_Modelfile-overwriteollama run DeepSeek-R1-UD-IQ1_M-verbose注册模型到Ollama107方案三、Unsloth动态量化+Ollama模型注册完成后,即可通过Ollama运行模型并验证其性能。运行命令如下:在运行过程中,可以观察模型的推理速度、吞吐量以及资源占用情况。例如,在单卡4090 G

    109、PU上,推理速度可达6 tokens/s,而在双卡A100服务器上,纯GPU推理速度可达20 tokens/s。性能验证不仅包括速度指标,还应关注模型的准确性和稳定性。可以通过以下方式验证模型性能:推理速度测试:通过输入简单的提示词,测试模型的响应时间。吞吐量测试:在多并发场景下,测试模型的吞吐量和资源占用情况。准确性测试:通过预定义的测试集,验证模型生成结果的准确性。如果性能未达到预期,可以调整模型配置文件中的参数,例如增加GPU层数或调整温度参数。ollama run DeepSeek-R1-UD-IQ1_M-verbose运行模型并验证性能108D e e p S e e k 一 体 机

    110、E n t e r p r i s ed e p l o y m e n tPART 04109109DeepSeek 一体机是融合“算力+大模型+应用”的创新产品。它的硬件配置强劲,配置高性能CPU和GPU、海量高速内存与固态硬盘,可高效处理复杂计算与大规模数据,进行大模型的推理甚至微调和训练。对一般企业而言,它提供一站式服务,“软硬协同、本地化部署”,降低智能化转型门槛,保障数据安全。对个人用户,其低成本让大模型使用更亲民,有效地降低了AI技术的使用门槛。推动 AI 技术普及,助力各行业利用 AI 提升效率。这部分将以北大青鸟用于高校AI通识课教育的AI实验室中的DeepSeek一体机为例

    111、,展示DeepSeek一体机的配置、性能数据及报价参考等,且深度分析业务场景的适配性,给予参考帮助。110国产DeepSeek一体机厂商一览表截止至2025年2月(不包含北大青鸟DeepSeek一体机,后续会详细介绍)尽管一体机普遍宣传支持“满血版”DeepSeek,但实际效果受算力卡性能限制,V3/R1 模型推荐 FP8 和 BF16 推理精度。第三方运营方为降低成本普遍采用:BF16 权重转换(占比约 65%)和INT8 量化方案(占比约 30%),导致用户实测效果比DeepSeek官方原版低 15-25%。选购建议:要求提供官方 FP8 兼容性认证,实测复杂场景下的响应速度与准确率三种精

    112、度方案对比1.最佳方案:原生支持 FP8 精度的 GPU,实现 100%满血推理效果2.次优方案:BF16 精度需自行转换模型权重,精度接近无损但系统开销增加,推理效率降低约 20-30%3.较差方案(残血版):量化为 INT8/INT4 模型,推理效率提升 3-5 倍,模型精度损失达 40-60%111DeepSeek国产一体机671B推荐配置基础模型精度:FP8配置1配置2配置3平台:昇腾910B 800I A2 整机*2平台:H20整机*1平台:海光K100-A1整机*2NPU:64G显存NPU模组GPU:NVIDIA 141GB H20-8GPU模组GPU:海光DCU K100-A1(

    113、64GB)基础模型精度:FP16配置1配置2配置3平台:昇腾910B 800I A2 整机*4平台:H20整机*2平台:AMD-MI300X整机*1NPU:64G显存NPU模组GPU:NVIDIA 141GB H20-8GPU模组GPU:AMD MI300X GPU模组(192GB)112 8卡4090(24G显存)DeepSeek R1 70B-4K,支持10并发,100名用户常规访问 DeepSeek R1 70B-8K,支持5并发,50名用户常规访问 8卡5090(32G显存)DeepSeek R1 70B-4K,支持12并发,120名用户常规访问 DeepSeek R1 70B-8K,

    114、支持6并发,60名用户常规访问 8卡L40S(48G显存)DeepSeek R1 70B-4K,支持20并发,200名用户常规访问 DeepSeek R1 70B-8K,支持10并发,100名用户常规访问70B8卡4090(24G显存)DeepSeek R1 32B-4K,支持24并发,240名用户常规访问DeepSeek R1 32B-8K,支持12并发,120名用户常规访问8卡5090(32G显存)DeepSeek R1 32B-4K,支持32并发,320名用户常规访问DeepSeek R1 32B-8K,支持16并发,160名用户常规访问8卡L40S(48G显存)DeepSeek R1

    115、32B-4K,支持48并发,480名用户常规访问DeepSeek R1 32B-8K,支持24并发,240名用户常规访问32BOpen WebUIDeepSeek一体机数据分享1个并发按照10个用户计算(假设访问的时候只有十分之一的时间在使用模型生成)DeepSeek 32B与70B-性能看板113北大青鸟AI实验室案例分享当前院校在大力推动人工智能专业建设和相关科研课题,但是在具体实施操作,会面临着很多问题,如教学资源不足,科研效率低,学生学习体验不佳,没有AI实训平台以及基础算力设施作为支撑等等,北大青鸟为院校提供AI实验室建设方案(DeepSeek一体机),以支撑各专业方向的教学和科研方

    116、面的创新工作。企业场景114北大青鸟AI实验室建设方案在实际应用中,传统部署方案(如vllm、Tensor RT等工具)常面临硬件适配复杂、资源利用率低等问题。为此,AI实验室提供开箱即用的DeepSeek一体机全栈解决方案:深度调优,集成预训练模型与动态调度引擎,兼容多场景推理与训练任务,以更低部署成本、更高响应效率及数据本地化安全保障,助力企业快速实现DeepSeek大模型规模化应用。操作系统:Centos/Ubuntu 分布式/并行文件系统系统层动态拓展、镜像存储、隔离策略、高可用、单机多卡、多机多卡容器层管理功能:任务、资源、镜像、存储、数据、用户、运维业务层动态监控 资源监控 集群监

    117、控 全景大屏状态信息 资源使用 任务运行监控层模型训推 自然语言 图像处理 语言识别文字识别 深度学习应用层计算节点硬件层管理节点存储节点网络节点内置主流模型管理工具,实现快速部署模型采用容器化,自动化脚本,使模型部署高效可重复一键运行DeepSeek-R1大模型,提供多版本模型(1.5B-671B)一键部署01快速发布服务,调用API实现应用对话支持用户基于DeepSeek大模型构建本地数据库优化算法结构,高效处理数;满足不同用户场景Deepseek02模型训练推理场景集中式一体化任务管理,系统资源,监控运维的可视化多种资源结构集中管理,GPU调度切分一 体机03115北大青鸟AI实验室(D

    118、eepSeek一体机)DeepSeek基础版 7B基础模型精度:FP16类别规格描述部件数平台1、4U4卡机架式服务器2、支持2颗Intel第4代CPU3、16根DDR5内存,最高4800MHz,最大4TB4、8块3.5/2.5,不支持NVME,支持2块NVME协议M.2x1CPU INTEL 5418Y Sapphire Rapids/24C/48T/2.0GHz/45MB/185W/4400MHzx2内存32GB/RECC/DDR5/4800MHzx4系统盘960G/2.5寸/SATA/1DWPDx2数据盘1.92T/2.5寸/U.2 NVME/1DWPDx1GPURTX4090 24GB

    119、/GDDR6X/PCIE/450W/双宽/16PIN/主动x2116北大青鸟AI实验室(DeepSeek一体机)DeepSeek标准版 32B基础模型精度:FP16类别规格描述部件数平台1、4U4卡机架式服务器2、支持2颗Intel第4代CPU3、16根DDR5内存,最高4800MHz,最大4TB4、8块3.5/2.5,不支持NVME,支持2块NVME协议M.2x1CPU INTEL 5418Y Sapphire Rapids/24C/48T/2.0GHz/45MB/185W/4400MHzx2内存32GB/RECC/DDR5/4800MHzx8系统盘960G/2.5寸/SATA/1DWPDx

    120、2数据盘3.84T/2.5寸/U.2 NVME/1DWPDx1GPURTX4090 24GB/GDDR6X/PCIE/450W/双宽/16PIN/主动x4117北大青鸟AI实验室(DeepSeek一体机)DeepSeek旗舰版 671B基础模型精度:FP16类别规格描述部件数平台NF5688M71.LSI 9560-8i(4G)Raid卡不带电容*12.Mellanox CX7400G单光口HCA卡(不带模块)*83.自研X710 10G双光口网卡(带模块)*14.3200W铂金电源*25.2700w铂金电源*6/导轨/国标16A电源线/3年NBDx1CPU Intel 8480+(56C,2

    121、.0GHz)*2x2内存64G 4800MHz DDR5x24系统盘960GB SATA SSDx2数据盘3.84T/2.5寸/U.2 NVME/1DWPDx4GPUGPU Nvidia HGX-H20-8GPU x1整机台数x2118北大青鸟AI实验室(DeepSeek一体机)类别适用场景性能报价DeepSeek基础版(7B)文本摘要、多轮对话系统(智能客服)、高精度轻量级任务并发约15-30;吞吐约10-20请求/秒8.8万DeepSeek标准版(32B)科研与学术的研究支持,专业领域问答和复杂逻辑推理,软件工程与高质量代码生成,企业战略分析与决策等并发约15-30;吞吐约10-15请求/

    122、秒16.8万DeepSeek旗舰版(671B)(满血版)国家级大型AI项目研究、气候建模等;院校算力中心建设并发约90-190;吞吐约30-60请求/秒199万建议报价,有一定的时效性119本次研讨,系统梳理了DeepSeek模型私有化部署的全场景解决方案,从模型选型到落地实践,覆盖个人用户与企业级需求的核心要点。通过对比不同版本模型的性能特点,结合Ollama、vLLM等部署框架的实操演示,帮助大家根据自身算力资源、业务场景和技术能力选择最优部署路径。无论是个人开发者通过轻量化工具快速体验模型能力,还是企业基于高性能推理引擎构建专业服务,抑或在有限资源下实现动态量化部署,或者个人、企业、学校、政府机关选购DeepSeek一体机的参考建议,本次分享均提供了可落地的技术方案和已验证的经验数据,为DeepSeek模型从能用到用好的跨越提供了完整方法论支持。总结120120参考文档1.https:/