​1. ollama版本过低,deepseek回复为空,qwen无法chat

  1. ollama改变/自定义安装路径
  2. Error: pull model manifest: 500: {“errors”:[{“code”:”INTERNAL_ERROR”,”message”:”internal error”}]}
  3. 在cmd使用ollama run,无法显示<think>的思路
  4. 其他各类deepseek信息传送门

本人环境:Windows 11,不使用docker,直接安装ollama;16GB RAM,无GPU。

1. ollama版本过低,deepseek回复为空,qwen无法chat

正确安装ollama、正确拉取deepseek-r1:1.5b后,能够用ollama list找到有这个模型,也有chat提示语(>>>Send a message (/? for help) ) ,但是和模型chat的过程中,deepseek的回复为空
为了验证问题所在,正确拉取qwen2:0.5b,但是无法开始chat,报错:Error: llama runner process no longer running: 3221226505

解决方案:用 ollama --version 查询版本是0.1.x,结合以上两个问题来看,ollama版本太低了。灵感来自:使用ollama运行llama3.1遇到问题+手工升级ollama

先卸载当前ollama,再回到官网下载更高版本的ollama(据2025年2月6日观察,0.5.x 好使)。具体如何安装,可以看以下第二点里的链接:

2. ollama改变/自定义安装路径

ollama的setup.exe运行的时候,是不能手动选择安装位置、model存放位置的。

如果你已经安装完ollama,并且想改路径,方法一(不推荐):安装完以后,把整个ollama可执行文件所在的文件夹、整个models文件夹移动到想要的位置并且修改相应的2个环境变量。不推荐,是因为可能导致上面第一点的问题。具体操作方法,参考文章:
在Windows中将Ollama安装到其他盘(例如D盘)的步骤如下_ollama安装到d盘-CSDN博客

如果你还没安装ollama,方法二更好:直接在安装时修改路径,OllamaSetup.exe /DIR=你想要安装的位置并且修改相应的2个环境变量。具体操作方法,参考文章:自定义Ollama安装路径 - 不愿透露姓名的菜鸟 - 博客园 ;或者 OLLAMA win11安装完整指南(安装时指定路径)

备注:models默认目录为 C:\Users%username%.ollama\models,这个.ollama文件夹里的server.log可以用来排除错误,其中的内容和 ollama serve的一致,想要运行后者的命令,需要当前没有ollama正在运行,具体操作可以参考:Windows安装与配置Ollama-CSDN博客

3. Error: pull model manifest: 500: {“errors”:[{“code”:”INTERNAL_ERROR”,”message”:”internal error”}]}

根据 GitHub: pull model manifest: 500 #8873 :北京时间2025年2月6日16:20左右开始,拉取不了新模型

解决方案:等待ollama修复。
结果:17:30左右,可以正常pull了。

(觉得速度很慢?本人使用魔法后,对于提速依然无效,只能硬等。。。)

4. 在cmd使用ollama run,无法显示<think>的思路

<think></think>中,内容为空;
问题回答太过简单,甚至有些不带脑子。

可能原因:

  • 在cmd的默认路径(C:\Users\你的用户名)进行ollama run 你的模型名字,确实会导致它的回答不带脑子(我也很好奇为什么)。
  • 问题过于简单,譬如聊天中的第一句“你好”,确实没有思考过程。
  • 可能是版本过低,跳转第一点问题与解决。

可参考的最简易版 javascript 程序:

fetch("http://localhost:11434/api/generate", {
method: "POST",
headers: { "Content-Type": "application/json" },
body: JSON.stringify({
model: "deepseek-r1:1.5b",
prompt: "如果一只橘子坚称它是一只猫,人工智能该怎么办?",
stream: false
})
})
.then(response => response.json())
.then(data => console.log(data));

5. 其他各类deepseek信息传送门

ollama官网下载链接(访问网页不需要魔法,但下载需要): Download Ollama ,或者GitHub下载链接:Releases · ollama/ollama

各个deepseek模型对应的电脑性能:DeepSeek模型各版本硬件要求指南 ,以及(这篇不确定是不是AI撰写的):DeepSeek编码器可以在预算友好的设置上运行,还是需要高端硬件

​ollama 相关命令:菜鸟教程-Ollama 相关命令

Chatbox官网下载链接(访问网页不需要魔法,但下载需要):Chatbox AI,或者GitHub下载链接:Releases · Bin-Huang/chatbox