当前位置: 首页 > news >正文

DIFY教程第一集:安装Dify配置环境

一、Dify的介绍

https://dify.ai/

Dify 是一款创新的智能生活助手应用,旨在为您提供便捷、高效的服务。通过人工智能技术, Dify 可以实现语音
助手、智能家居控制、日程管理等功能,助您轻松应对生活琐事,享受智慧生活。简约的界面设计,让操作更加便
捷;丰富的应用场景,满足您多样化的需求。 Dify ,让生活更简单!

二、Dify的安装方式

1. 在线体验

速度比较慢。不推荐

2. 本地部署

2.1 Docker 安装
安装 Docker 环境
bash <(curl -sSl
https://cdn.jsdelivr.net/gh/SuperManito/LunuxMirrors@main/DockerInstallation.sh)
安装 Docker Compose
curl -L "https://github.com/docker/compose/releases/latest/download/docker-compose-$(uname -
s)-$(uname -m)" -o /usr/local/bin/docker-compose && chmod +x /usr/local/bin/docker-compose
执行查看 Docker-compose 版本
docker-compose --version

说明安装成功了
docker-compse 拉取镜像很慢
sudo tee /etc/docker/daemon.json <<-'EOF'
{
"registry-mirrors": [
"https://do.nark.eu.org",
"https://dc.j8.work",
"https://docker.m.daocloud.io",
"https://dockerproxy.com",
"https://docker.mirrors.ustc.edu.cn",
"https://docker.nju.edu.cn"
]
}
EOF
执行上面的代码
sudo systemctl daemon-reload # 重新加载 systemd 的配置文件
systemctl restart docker # 重启docker
然后去 GitHub 上拉取 dify 的代码。解压后进入到 docker 目录中
docker-compose up -d
执行即可
2.2 DockerDeskTop
Windows 环境下我们可以通过 DockerDesktop 来安装。直接去官网下载对应的版本即可。同样的我们需要拉
dify GitHub 的代码。然后进入到 Docker 目录,同样的执行这个代码
docker-compose up

然后在地址栏中输入 http://localhost/install 就可以访问了我们先设置管理员的相关信息。设置后再登录

3. Ollama

https://ollama.com/
我们已经把 Dify 在本地部署了。然后我们可以通过 Ollama 在本地部署对应的大模型,比如 deepseek-r1:1.5b
种小模型
Ollama 是一个让你能在本地运行大语言模型的工具,为用户在本地环境使用和交互大语言模型提供了便利,具有以下
特点:
1 )多模型支持: Ollama 支持多种大语言模型,比如 Llama 2 Mistral 等。这意味着用户可以根据自己的需求和场
景,选择不同的模型来完成各种任务,如文本生成、问答系统、对话交互等。
2 )易于安装和使用:它的安装过程相对简单,在 macOS Linux Windows 等主流操作系统上都能方便地部署。
用户安装完成后,通过简洁的命令行界面就能与模型进行交互,降低了使用大语言模型的技术门槛。
3 )本地运行: Ollama 允许模型在本地设备上运行,无需依赖网络连接来访问云端服务。这不仅提高了数据的安全性
和隐私性,还能减少因网络问题导致的延迟,实现更快速的响应。
搜索 Ollama 进入官网 https://ollama.com/download ,选择安装MAC版本的安装包,点击安装即可
下载完成后直接双击安装即可
命令:ollama,出现下面内容,说明安装成
启动 Ollama 服务
输入命令【 ollama serve 】,浏览器打开,显示running,说明启动成功
安装 deepseek-r1:1.5b 模型
https://ollama.com/library/deepseek-r1:1.5b 搜索 deepseek-R1, 跳转到下面的页面,复制这个命令,在终端执
行,下载模型 cmd中执行这个命令

4.Dify关联Ollama

Dify 是通过 Docker 部署的,而 Ollama 是运行在本地电脑的,得让 Dify 能访问 Ollama 的服务。
Dify 项目 -docker- 找到 .env 文件,在末尾加上下面的配置:
# 启用自定义模型
CUSTOM_MODEL_ENABLED=true
# 指定 Olama 的 API地址(根据部署环境调整IP)
OLLAMA_API_BASE_URL=host.docker.internal:11434
然后在模型中配置
Dify 的主界面 http://localhost/apps ,点击右上角用户名下的【设置】 在设置页面--Ollama--添加模型,如下: 添加成功后的
模型添加完成以后,刷新页面,进行系统模型设置。步骤:输入 http://localhost/install 进入 Dify 主页,用户名 -- 设 置--模型供应商,点击右侧【系统模型设置】,如下: 这样就关联成功了!!!
下一集:DIFY搭建知识库
Dify教程目录
一、Dify的介绍
二、Dify的安装方式
1. 本地部署
2. Docker安装
3.Ollama
4.Dify关联Ollama
三、Dify应用讲解
1. 创建空白应用
2. 创建本地知识库
3.知识库应用
4. AI图片生成工具
5. 旅游助手
6. SQL执行器
7. 科研论文翻译
8. SEO翻译
9. 标题覚文案生成
10.知识库图像检索和展示
11.自然语言生成SQL
12. Echarts可视化助手
.........
持续更新中,如需DIFY全流程文档可关注博主,查看私信获取哦

相关文章:

  • 泰迪杯实战案例超深度解析:旅游景点游客流量预测与资源优化
  • 英文中日期读法
  • 记录学习记录学习《手动学习深度学习》这本书的笔记(九)
  • Python中的Walrus运算符分析
  • 第35课 常用快捷操作——用“鼠标左键”拖动图元
  • 产品经理面经(1)
  • 在winform中使用chromiumWebBrowser显示Echarts图表
  • 前端高频面试题day2
  • 大模型工程师基础之学会使用openai
  • 51单片机所有寄存器介绍
  • leetcode0103. 二叉树的锯齿形层序遍历-medium
  • JAVA手写题-精通 Java 单例模式:三种线程安全的实现方式详解
  • JAVA:单例模式
  • 【锂电池剩余寿命预测】Transformer锂电池剩余寿命预测(Pytorch完整源码和数据)
  • Java : GUI
  • RC吸收电路参数设置实战
  • Python包的编译、构建与打包指南
  • IDEA常用快捷键及操作整理(详细图解,持续更新)
  • Allegro23.1新功能之如何冻结动态铜皮操作指导
  • 二、Web服务常用的I/O操作
  • 五一期间上海景观照明开启重大活动模式,外滩不展演光影秀
  • 伊朗最大港口爆炸:26公里外都能听到,超七百人受伤,原因指向化学品储存
  • 海南旅文局通报游客入住酒店港币被调包:成立调查组赴陵水调查
  • 特朗普将举行集会庆祝重返白宫执政百日,被指时机不当
  • 子公司神州信息十年来首次亏损,神州控股遭国有股东广州城投派驻董事问责
  • 安徽一交通事故责任认定引质疑:民警和司法鉴定人被处罚,已中止诉讼