转淇云博客
DeepSeek 是目前最火的应用,日常写作、翻译、问答都能轻松搞定,独特的深度思考模式加上联网搜索,在编程、解题、文献解读等复杂任务中也游刃有余,推理思考能力一绝。短短几天内,DeepSeek 便登顶中美两区苹果应用市场免费榜榜单。
DeepSeek 官网因为某些众所周知的原因,经常宕机不可用,我们可以自己在本地部署 DeepSeek R1 来解决这个问题,无需依赖云端服务。
部署教程
为了方便操作,可以先安装一个 Ollama 软件,它是一个开源的基于Go语言的本地大语言模型运行框架,专门为本地电脑上部署和运行大模型而生的,类似于Docker,支持上传和管理大语言模型仓库,包括 DeepSeek 等模型。在 Ollama 的官网,我们可以下载 Ollama 程序,然后更方便地下载、安装和运行DeepSeek模型。
1、打开 Ollama 官网下载地址:https://ollama.com/download,先下载 Ollama 程序,如下图:
![本地部署 DeepSeek 大模型教程-牛魔博客 本地部署 DeepSeek 大模型教程-牛魔博客](https://oss.nmwbk.com/wp-content/uploads/2025/02/20250210081745748.png?imageView2/0/q/75|watermark/1/image/aHR0cHM6Ly93d3cubm13YmsuY29tL2xvZ28yLnBuZw==/dissolve/58/gravity/SouthEast/dx/10/dy/10)
2、以管理员身份安装 Ollama 程序,安装成功后打开 Ollama 程序,如下图:
![本地部署 DeepSeek 大模型教程-牛魔博客 本地部署 DeepSeek 大模型教程-牛魔博客](https://tc.pengqi.club/g/2025/02/08/67a71bdb4a638.webp)
![本地部署 DeepSeek 大模型教程-牛魔博客 本地部署 DeepSeek 大模型教程-牛魔博客](https://tc.pengqi.club/g/2025/02/08/67a71bea6c740.webp)
![本地部署 DeepSeek 大模型教程-牛魔博客 本地部署 DeepSeek 大模型教程-牛魔博客](https://tc.pengqi.club/g/2025/02/08/67a71bef2e42b.webp)
![本地部署 DeepSeek 大模型教程-牛魔博客 本地部署 DeepSeek 大模型教程-牛魔博客](https://tc.pengqi.club/g/2025/02/08/67a71c06b47d6.webp)
3、Ollama 支持的大模型还是非常多的,其中 DeepSeek 模型也有多个版本:1.5b、7b、8b、14b、32b、70b 671b,版本越高对GPU要求越高。每一个版本都对应一个安装命令,我们可以先将安装命令复制下来,如下图。
![本地部署 DeepSeek 大模型教程-牛魔博客 本地部署 DeepSeek 大模型教程-牛魔博客](https://tc.pengqi.club/g/2025/02/08/67a71c6635223.webp)
![本地部署 DeepSeek 大模型教程-牛魔博客 本地部署 DeepSeek 大模型教程-牛魔博客](https://tc.pengqi.club/g/2025/02/08/67a71c751d51b.webp)
![本地部署 DeepSeek 大模型教程-牛魔博客 本地部署 DeepSeek 大模型教程-牛魔博客](https://oss.nmwbk.com/wp-content/uploads/2025/02/20250210081749168.png?imageView2/0/q/75|watermark/1/image/aHR0cHM6Ly93d3cubm13YmsuY29tL2xvZ28yLnBuZw==/dissolve/58/gravity/SouthEast/dx/10/dy/10)
![本地部署 DeepSeek 大模型教程-牛魔博客 本地部署 DeepSeek 大模型教程-牛魔博客](https://tc.pengqi.club/g/2025/02/08/67a71c9611c4e.webp)
PS:卸载则把命令中的 run 改成 rm 即可,如果想了解更多命令,可以直接输入 ollama 查看。另外,默认情况下,Ollama模型的存储目录如下:
![本地部署 DeepSeek 大模型教程-牛魔博客 本地部署 DeepSeek 大模型教程-牛魔博客](https://tc.pengqi.club/g/2025/02/08/67a71cff2ae8a.webp)
5、部署完成后,我们可以直接在命令窗口输入想问的问题,如下图。
![本地部署 DeepSeek 大模型教程-牛魔博客 本地部署 DeepSeek 大模型教程-牛魔博客](https://tc.pengqi.club/g/2025/02/08/67a71ebc3511c.webp)
![本地部署 DeepSeek 大模型教程-牛魔博客 本地部署 DeepSeek 大模型教程-牛魔博客](https://tc.pengqi.club/g/2025/02/08/67a71ec98ce6b.webp)
PS:如果想退出对话,直接输入 /bye 即可。当电脑重启后,需要先运行 Ollama 软件,然后打开CMD命令提示符,输入下面的命令即可通过窗口进行对话。
![本地部署 DeepSeek 大模型教程-牛魔博客 本地部署 DeepSeek 大模型教程-牛魔博客](https://tc.pengqi.club/g/2025/02/08/67a71ed8507fa.webp)
7、运行本地模型对你的电脑配置有一定要求,包括内存、GPU 等。但运行稳定,不受网速影响。如果出现卡顿,请尝试降低模型参数。有需要的小伙伴可以体验一下!
感谢您的来访,获取更多精彩文章请收藏本站。
![](https://www.nmwbk.com/62f50d5a499c2.gif)
![](https://oss.nmwbk.com/wp-content/uploads/2023/05/20230528122715647.bmp)
暂无评论内容