
deepseek部署教程
1、此次教程为Ollama家用级本地模型部署,供个人测试使用并对 Ollama 做好安全策略以防止黑客攻击;
2、使用满血版的部署需要专业服务器,建议在1T内存+起码双H100 80G的推理服务器实现,可以选SGLANG框架或者VLLM框架;视硬件选择最优方案。
一、下载安装 Ollama
家用级部署DeepSeek要用到 Ollama,它支持多种大模型,Ollama官网https://ollama.com
下载安装Ollama,macOS、Linux 和 Windows都可以下载安装
linux安装:curl -fsSL https://ollama.com/install.sh | sh
macOS 和 windows 直接下载就行
注意:ollama 所需的GNU C 库(glibc)的版本为 2.27,但我使用的 centos7.9 默认提供的是 glibc 2.17,导致 glibc 版本低于 ollama 所需的版本,为了系统稳定性和安全性问题,不对 glibc 进行升级,故采用容器方式安装 ollama
运行 docker 有两种方式:
1、CPU 运行
2、GPU 运行
可参考官方文档:https://github.com/ollama/ollama/blob/main/docs/docker.md
安装完成后访问http://172.16.10.222:11111,出现Ollama is running即安装成功
以下是 Ollama 使用常见的指令:
我的系统配置为:
二、下载运行deepseek-R1
进入Ollama官网,找到Models。
进入就可以看到deepseek-r1模型,如果没有,在搜索栏搜索即可。
选择对应的模型来下载,1.5b、7b、8b、14b、32b、70b或671b,这里有很多版本可选,模型越大,要求电脑内存、显卡等的配置越高。老韩这台机子还不错,选择70b的模型,不要羡慕哦😀;大家根据自己的机器配置来进行选择,具体硬件配置可以参考这篇文章。
使用命令来下载:ollama pull deepseek-R1:70b
由于模型比较大,依赖于网速,等待 pull 完成即可
效果:
三、open-webui部署
open-webui提供了一个基于浏览器的前端界面,用户可以方便地与运行中的模型进行交互,实现问答、文本生成等功能。
使用 Open WebUI 增强交互体验,只要是支持Ollama的webUI都可以,如Dify,AnythingLLM都可以。我这里用比较简单,而且也是与Ollama结合比较紧密的open-webui为例:
项目地址:https://github.com/open-webui/open-webui
学习地址:https://docs.openwebui.com
使用 docker 部署 open-webui
注意:open-webui启动比较缓慢,需要等二三十秒左右, 直到docker日志中显示服务已经启动完成。
配置open-webui与ollama连接
访问http://172.16.10.222:3000
点击开始使用,创建管理员账号
模型添加
设置--->管理员设置--->外部连接--->按情况添加等
开始对话
四、常见问题与解决方法
问题 1: Ollama 下载模型失败
解决方法:检查你的网络连接是否稳定。你可以尝试更换网络环境或重启下载。如果问题持续存在,尝试清空 Ollama 的缓存并重新启动。
问题 2: WebUI 显示 500 错误
解决方法:查看 Open-WebUI 的日志,确认是否有报错信息。如果日志中有关于依赖库缺失或配置错误的提示,按照提示进行修复。
问题 3: WebUI 无法连接到外部 Ollama
解决方法:确认 Ollama 和 Open-WebUI网路互通,且 Ollama 服务已正常启动。如果没有,重新启动 Ollama 或检查网络设置。特别需要提到的是:如果本地host方式启动的Ollama 服务,需要设置: OLLAMA_ORIGINS="*" OLLAMA_HOST=0.0.0.0:11111;WebUI管理员页面配置Ollama时,Ollama的地址需要填写实际地址:http://<实际IP地址>:11111
问题 4: Open-WebUI启动后,页面打开显示空白
解决方法:Open-WebUI启动比较缓慢,需要等待一段时间, 直到docker日志中显示服务已经启动完成。