本地部署ollama+deepseek-r1排错攻略(ollama版本过低/自定义安装路径/不显示思路/500 INTERNAL_ERROR/其他常用链接传送门)
1. ollama版本过低,deepseek回复为空,qwen无法chat
- ollama改变/自定义安装路径
- Error: pull model manifest: 500: {“errors”:[{“code”:”INTERNAL_ERROR”,”message”:”internal error”}]}
- 在cmd使用ollama run,无法显示<think>的思路
- 其他各类deepseek信息传送门
本人环境:Windows 11,不使用docker,直接安装ollama;16GB RAM,无GPU。
1. ollama版本过低,deepseek回复为空,qwen无法chat
正确安装ollama、正确拉取deepseek-r1:1.5b后,能够用ollama list找到有这个模型,也有chat提示语(
>>>Send a message (/? for help)
) ,但是和模型chat的过程中,deepseek的回复为空;
为了验证问题所在,正确拉取qwen2:0.5b,但是无法开始chat,报错:Error: llama runner process no longer running: 3221226505
解决方案:用 ollama --version
查询版本是0.1.x,结合以上两个问题来看,ollama版本太低了。灵感来自:使用ollama运行llama3.1遇到问题+手工升级ollama
先卸载当前ollama,再回到官网下载更高版本的ollama(据2025年2月6日观察,0.5.x 好使)。具体如何安装,可以看以下第二点里的链接:
2. ollama改变/自定义安装路径
ollama的setup.exe运行的时候,是不能手动选择安装位置、model存放位置的。
如果你已经安装完ollama,并且想改路径,方法一(不推荐):安装完以后,把整个ollama可执行文件所在的文件夹、整个models文件夹移动到想要的位置
,并且修改相应的2个环境变量
。不推荐,是因为可能导致上面第一点的问题。具体操作方法,参考文章:
在Windows中将Ollama安装到其他盘(例如D盘)的步骤如下_ollama安装到d盘-CSDN博客
如果你还没安装ollama,方法二更好:直接在安装时修改路径,OllamaSetup.exe /DIR=你想要安装的位置
,并且修改相应的2个环境变量
。具体操作方法,参考文章:自定义Ollama安装路径 - 不愿透露姓名的菜鸟 - 博客园 ;或者 OLLAMA win11安装完整指南(安装时指定路径)
备注:models默认目录为 C:\Users%username%.ollama\models
,这个.ollama
文件夹里的server.log
可以用来排除错误,其中的内容和 ollama serve
的一致,想要运行后者的命令,需要当前没有ollama正在运行,具体操作可以参考:Windows安装与配置Ollama-CSDN博客
3. Error: pull model manifest: 500: {“errors”:[{“code”:”INTERNAL_ERROR”,”message”:”internal error”}]}
根据 GitHub: pull model manifest: 500 #8873 :北京时间2025年2月6日16:20左右开始,拉取不了新模型
解决方案:等待ollama修复。
结果:17:30左右,可以正常pull了。
(觉得速度很慢?本人使用魔法后,对于提速依然无效,只能硬等。。。)
4. 在cmd使用ollama run,无法显示<think>的思路
<think></think>中,内容为空;
问题回答太过简单,甚至有些不带脑子。
可能原因:
- 在cmd的默认路径(C:\Users\你的用户名)进行
ollama run 你的模型名字
,确实会导致它的回答不带脑子(我也很好奇为什么)。- 解决方案1:换一个路径,譬如在cmd 输入
cd Downloads
即可。 - 解决方案2:写程序调用。(js程序见下)
- 解决方案3:使用Chatbox等工具调用。参考:高效快速教你deepseek如何进行本地部署并且可视化对话
- 解决方案1:换一个路径,譬如在cmd 输入
- 问题过于简单,譬如聊天中的第一句“你好”,确实没有思考过程。
- 可能是版本过低,跳转第一点问题与解决。
可参考的最简易版 javascript 程序:
fetch("http://localhost:11434/api/generate", { |
5. 其他各类deepseek信息传送门
ollama官网下载链接(访问网页不需要魔法,但下载需要): Download Ollama ,或者GitHub下载链接:Releases · ollama/ollama
各个deepseek模型对应的电脑性能:DeepSeek模型各版本硬件要求指南 ,以及(这篇不确定是不是AI撰写的):DeepSeek编码器可以在预算友好的设置上运行,还是需要高端硬件
ollama 相关命令:菜鸟教程-Ollama 相关命令
Chatbox官网下载链接(访问网页不需要魔法,但下载需要):Chatbox AI,或者GitHub下载链接:Releases · Bin-Huang/chatbox