当前位置: 首页 > news >正文

ollama本地部署 deepseek离线模型安装 一套从安装到UI运行

一、安装本地ollama

1、下载ollama

(1)百度网盘windows版本

通过网盘分享的文件:OllamaSetup.exe
链接: https://pan.baidu.com/s/15ca6WAzrc4wWph5H9BEOzw

提取码: 283u

(2)进入官网:Ollama

2、选择你的系统

等待下载完成就可以了。

注:这里有些同学的网络可能下载不了。用上面我百度网盘里面的安装包。

3、选择安装路径

(1) 来到下载好的exe文件目录里

(2) 进入控制面板

(3) 在控制面版执行一下命令

D:\RuanJian\ollama 为你的安装目录

OllamaSetup.exe /DIR=D:\RuanJian\ollama

4、查看效验安装是否成功

随便在一个地方win+R -> cmd

输入 ollama -v

显示版本号表示安装成功!

二、下载模型

1、修改模型默认路径

(1)进入环境变量面板

(2)配置软件执行目录,添加软件安装目录

(3)配置模型存放位置

OLLAMA_MODELS

变量值就是存放模型的位置

创建好后一直保存确定就行

2、下载线上模型

deepseek-r1

3、拷贝本地模型(用已经下好的模型)

如果你兄弟姐妹已经下载好了模型,而你的网络不加或者不想自己下载。

可以去把他的模型拿过来用!

(1)默认模型存放位置:

(2)将文件夹models全部拷贝出来

(3)粘贴到你配置的模型存放位置

4、效验模型是否下载完成

ollama list

三、UI页面

这里针对有条件的同学

在Chrome 应用商店下载 page assist

固定好后直接点击就可以进入UI页面

四、恭喜你已经安装成功!赶紧用起来吧!

相关文章:

  • 【系列专栏】银行IT的云原生架构-存储架构-数据库部署 10
  • python+halcon 解读labelme标注生成marksimage
  • 【ISO 14229-1:2023 UDS诊断全量测试用例清单系列:第十九节】
  • Jetpack Compose系列教程之(10)——State及remeber
  • MySQL的SQL执行流程
  • 机器学习(四)
  • 智能车摄像头开源—8 元素处理
  • 【FastAPI】8.FastAPI结合Jinja2模板完成一个待办列表
  • 【数据结构-并查集】力扣721. 账户合并
  • Pycharm 2024在解释器提供的python控制台中运行py文件
  • DDD该怎么去落地实现(3)通用的仓库和工厂
  • 用大模型学大模型04-模型可视化与数据可视化
  • [数据结构]二叉搜索树详解
  • Spring——Spring开发实战经验(4)
  • SpringBoot 的核心只有几张图
  • Ubuntu 24.04.1 LTS 本地部署 DeepSeek 私有化知识库
  • C语言中的强制类型转换:原理、用法及注意事项
  • 1.buuctf [BJDCTF2020]EasySearch
  • Hadoop之HDFS的使用
  • 从零开始:Gitee 仓库创建与 Git 配置指南
  • TCL科技一季度净利增超三倍,去年半导体显示业务营收创新高
  • 新开发银行如何开启第二个“金色十年”?
  • 马上评丨又见酒店坐地起价,“老毛病”不能惯着
  • 开门红背后的韧性密码:上海八大企业的“反脆弱”与“真功夫”
  • 李在明当选韩国共同民主党总统候选人
  • 大漠孤烟为何“直”?物理学家在唐诗中读出“不一样的美”