Ollama 常见命令速览:本地大模型管理指南
Ollama 常见命令速览:本地大模型管理指南
一、什么是 Ollama?
Ollama 是一个轻量级工具,允许用户在本地快速部署和运行大型语言模型(LLM),如 Llama、DeepSeek、CodeLlama 等。其命令行工具设计简洁,与 Docker 类似,适合开发者、研究人员和企业快速搭建私有化 AI 环境。
二、快速安装 Ollama
# Linux 命令行安装
curl -fsSL https://ollama.com/install.sh | sh# Windows/Mac 下载安装包:https://ollama.com
三、核心命令分类
1. 模型管理命令
(1) 安装模型
ollama pull <模型名称>
# 示例:下载 Codellama 模型
ollama pull codellama
支持指定版本(如 llama3.1:405b
),通过 ollama list
查看支持的模型列表。
(2) 列出本地模型
ollama list # 或 ollama ls
# 输出示例:
# llama2 1.0 3.8GB
# codellama 2.0 4.2GB
(3) 删除模型
ollama rm <模型名称>
# 示例:删除 llama2 模型
ollama rm llama2
(4) 查看模型信息
ollama show <模型名称>
# 输出包括模型版本、参数量、存储路径等详细信息。
(5) 复制模型
ollama cp <源模型名> <新模型名>
# 示例:复制 codellama 为 my-codellama
ollama cp codellama my-codellama
2. 模型运行命令
(1) 启动模型交互
ollama run <模型名称>
# 示例:运行 Llama2 模型
ollama run llama2
# 进入对话模式后,输入问题即可与模型交互。
(2) 停止运行中的模型
ollama stop # 停止当前运行的模型
# 或指定模型名称(部分版本支持)
ollama stop <模型名称>
(3) 查看运行中的模型
ollama ps # 列出所有正在运行的模型
3. 服务管理命令
(1) 启动 Ollama 服务
ollama serve
# 默认监听 11434 端口,可通过浏览器访问 http://localhost:11434 验证服务是否运行。
(2) 停止服务
ollama stop # 同时停止服务及运行中的模型
4. 其他辅助命令
(1) 查看帮助
ollama help # 或 ollama --help
# 显示所有命令及简要说明。
(2) 查看版本
ollama version # 或 ollama -v
(3) 查看日志
ollama logs # 调试模型运行问题时使用。
四、使用示例
示例 1:下载并运行模型
# 下载 DeepSeek-R1 的 8B 版本
ollama pull deepseek-r1:8b
# 运行模型并交互
ollama run deepseek-r1:8b
示例 2:创建自定义模型
- 编写 Modelfile(定义模型配置):
FROM llama2 # 添加自定义参数(如量化配置)
- 创建并运行模型:
ollama create mymodel -f ./Modelfile ollama run mymodel
五、安全注意事项
- 限制端口访问:
# 修改配置文件(如 /etc/systemd/system/ollama.service) Environment="OLLAMA_HOST=localhost" systemctl restart ollama
- 启用 API 密钥(版本 ≥0.5.12):
export OLLAMA_API_KEY="your-secret-key"
六、总结
Ollama 通过简单命令实现了模型的“一键部署”,适合快速测试、本地化应用开发或隐私敏感场景。掌握上述命令后,你可以:
- 快速拉取和删除模型
- 管理多模型环境
- 通过 API 或命令行灵活调用模型
提示:访问 Ollama 官方模型库 查看更多模型及参数配置!