Windows 10 上运行 Ollama 时遇到 llama runner process has terminated: exit status 2
在 Windows 10 上运行 Ollama 时遇到 llama runner process has terminated: exit status 2
错误,可能是由多种原因引起的。以下是逐步解决方案:
1. 检查 Ollama 服务状态
-
按
Win + R
输入services.msc
,找到Ollama
服务,确保其状态为 正在运行。 -
如果没有运行,右键手动启动;如果启动失败,尝试重新安装 Ollama。
2. 更新显卡驱动(尤其是 NVIDIA/AMD)
-
此错误可能与 GPU 计算兼容性有关:
-
打开 设备管理器 > 展开 显示适配器 > 右键显卡选择 更新驱动。
-
或前往显卡官网下载最新驱动:
-
NVIDIA 驱动下载
-
AMD 驱动下载
-
-
3. 验证模型完整性
-
删除并重新拉取模型(以
llama2
为例):ollama rm llama2 ollama pull llama2 ollama run llama2
-
如果问题依旧,尝试其他模型(如
mistral
),确认是否为模型特定问题。
4. 检查系统环境变量
-
确保 Ollama 的路径已添加到系统环境变量:
-
默认安装路径:
C:\Program Files\Ollama
。 -
按
Win + S
搜索 “环境变量” > 编辑 系统变量 中的Path
,添加 Ollama 的安装路径。
-
5. 关闭冲突软件
-
临时禁用杀毒软件(如 360、火绒)或防火墙,某些安全软件可能拦截 Ollama 的子进程。
-
确保没有其他程序占用 GPU 资源(如游戏、深度学习任务)。
6. 以管理员身份运行
-
右键点击命令提示符或 PowerShell,选择 以管理员身份运行,再执行 Ollama 命令。
7. 查看详细日志
-
获取更详细的错误信息:
ollama serve > ollama.log 2>&1
然后在新窗口运行模型,检查
ollama.log
文件中的具体报错(如 CUDA 版本不匹配、内存不足等)。
8. 重装 Ollama
-
完全卸载后重新安装:
-
卸载 Ollama。
-
删除残留目录(如
C:\Users\<你的用户名>\.ollama
)。 -
从官网下载最新版本安装:Ollama 官网。
-
9. 检查硬件兼容性
-
如果使用 GPU 加速,确认显卡是否支持 CUDA(NVIDIA)或 ROCm(AMD):
-
运行
nvidia-smi
(NVIDIA)或rocminfo
(AMD)检查工具是否正常输出。
-
-
若显卡不支持,尝试强制使用 CPU 模式(性能会下降):
setx OLLAMA_NO_CUDA "1"
重启终端后运行模型。
10. 系统依赖项
-
安装 Visual C++ 运行库和 .NET Framework:
-
下载 Visual C++ Redistributable。
-
确保 Windows 10 已更新至最新版本(设置 > 更新和安全)。
-
附:常见原因总结
原因 | 解决方向 |
---|---|
显卡驱动不兼容 | 更新驱动或禁用 GPU 加速 |
模型文件损坏 | 重新拉取模型 |
权限不足 | 以管理员身份运行 |
内存/显存不足 | 换更小模型或关闭其他程序 |
安全软件拦截 | 临时禁用杀毒软件 |
如果以上步骤仍无法解决,请提供 ollama.log
中的关键错误信息进一步分析。