第五部分 本地部署准备工作:各个版本、推理框架、硬件资源
DeepSeek-R1的多个版本:加上2个原装671B的,总计8个参数版本
主流的大模型推理框架:分为PC端和Android端
不同参数的模型所要求的硬件
蒸馏版和满血版的两类部署
第六部分 通过Ollama、vLLM本地部署DeepSeek-R1蒸馏版:支持联网搜索及知识库问答
1、基于Ollama和各类插件构建智能对话:终端、open-webui(支持联网)、Chatbox
1) Ollama下的终端命令行交互
2) Ollama下的open-webui交互:基于docker安装,且支持联网搜索
3) 基于Ollama + ChatBox部署deepseek-r1:7b
2、基于Ollama和Page Assist/AnythingLLM构建本地知识库问答系统
1) 基于Ollama + Page Assist搭建本地知识库问答系统:且支持联网搜索
2) 基于Ollama + AnythingLLM搭建本地知识库问答
3、通过vLLM推理deepseek-r1
1) 基于vLLM的命令行交互——R1-Distill-Llama-8B
2) 基于vllm + open WebUi 部署r1 7b
4、本地手机端部署DeepSeek-R1蒸馏Llama/Qwen后的版本
第七部分 无蒸馏前提下本地部署R1 or R1-Zero 671B满血版
1、折中路径:无蒸馏但量化部署Deepseek-R1 671B满血版
1) 本地CPU上运行 Deepseek-R1 的完整的硬件 + 软件设置
2) GPU上跑无蒸馏但量化的Deepseek-R1 671B满血版
2、企业级部署:无蒸馏不量化部署Deepseek-R1 671B满血版