DeepSeek_部署
深度求索(DeepSeek)是一家专注于实现人工通用智能(AGI)的中国公司,致力于通过前沿的人工智能技术推动社会进入更智能的时代。其核心技术涵盖大语言模型开发、多模态 AI 研究和强化学习等领域。在技术实现上,DeepSeek 基于改进版 Transformer 架构构建核心模型,并结合混合精度训练和分布式计算策略提升效率;同时,在数据处理方面,通过高质量的数据清洗和标注流程确保模型的可靠性和安全性。此外,DeepSeek 的轻量化推理引擎和微服务架构使其能够高效支持实时交互和行业应用。目前,其技术已应用于智能对话、内容生成以及教育、医疗等行业解决方案中,并将继续加大研发投入,推动 AGI 实现,为社会创造更大价值。
1. 安装ollama
在Linux服务器中输入ollama安装指令如下所示:
curl -fsSL https://ollama.com/install.sh | sh
2.运行deepseek
之后开启ollama服务,并通过ollama运行deepseek,具体指令如下所示:
ollama serve
ollama run deepseek-r1:32b
3.其他一些问题
3.1 默认路径修改
在Linux中ollama模型的默认安装位置是 /usr/share/ollama/.ollama/models,如果希望修改该地址需要在ollama.service中进行配置:
sudo vim /etc/systemd/system/ollama.service
具体来说,需要在[Service]中添加Environment="OLLAMA_MODELS=/path/to/ollama/models"。
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/local/bin/ollama serve
User=root
Group=root
Restart=always
RestartSec=3
Environment="PATH=/home/asus/anaconda3/bin:/home/asus/anaconda3/condabin:/home/asus/.local/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin:/snap/bin"
Environment="OLLAMA_MODELS=/path/to/ollama/models"
[Install]
WantedBy=default.target
之后需要重新配置并重启ollama,如下所示:
sudo systemctl daemon-reload
sudo systemctl restart ollama.service
sudo systemctl status ollama
此外,需要让ollama具有访问新文件夹的权限:
sudo chown ollama:ollama /path/to/model/
3.2 外网访问配置
ollama默认情况下只支持本地访问,如果需要外网访问需要修改配置文件:
sudo vim /etc/systemd/system/ollama.service
具体来说,需要在[Service]中添加Environment="OLLAMA_HOST=0.0.0.0:11434":
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/local/bin/ollama serve
User=root
Group=root
Restart=always
RestartSec=3
Environment="PATH=/home/asus/anaconda3/bin:/home/asus/anaconda3/condabin:/home/asus/.local/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin:/snap/bin"
Environment="OLLAMA_MODELS=/path/to/ollama/models"
Environment="OLLAMA_HOST=0.0.0.0:11434"
[Install]
WantedBy=default.target
之后需要重新配置并重启ollama,和上面介绍的方法类似。