当前位置: 首页 > news >正文

DIFY 浅尝 - DIFY + Ollama 添加模型

准备物料

Dify 本地部署

Ollama 下载

Open WebUI

好了现在,假设访问 http://localhost/apps 应该可以打开 Dify,设置用户登录后应该可以看到以下界面
在这里插入图片描述
打开 http://localhost:3000/, 你应该可以看到部署好的Open WebUI,并假设有下载好你感兴趣的模型
在这里插入图片描述

Dify中配置模型

打开Dify设置页面

可以参考 官方文档,里面有介绍接入各种模型供应商的方法
在这里插入图片描述
找到Ollama,点击设置
在这里插入图片描述
其他的字段都按照官方文档指引先填写了,这里遇到了两个问题

  • 模型名称
    原本我是想起个友好的名字,因为他官网说本地ollama run xxxx,我以为就会默认访问run的命令,但结果并不是这样,如果配置了Open WebUI,可以跳过教程中的run阶段,模型名称 是在调用ollama api的时候必须传入的,需要与通过ollama list命令列出来的完全一致,否则会报模型找不到的错误
    在这里插入图片描述
  • 基础URL地址
    他官方这段话讲道理是真的有点云里雾里,可能对这块儿不熟悉吧,用了localhost以及局域网ip都不行,我又想我也没用docker部署ollama就没尝试 host.docker.internal,结果始终是报错

    就类似这样的错误
    在这里插入图片描述
    最后各种Google啊,百撕不得其姐,然后偶然翻开 Open WebUI 的设置->外部链接,发现了如下
    在这里插入图片描述
    然后点击刷新小按钮,还真的可以,于是粘贴到Dify里面,果然可以了~
    在这里插入图片描述

有用的资料

Ollama FAQ

相关文章:

  • 2025.04.26-美团春招笔试题-第三题
  • MQ消息的不可靠性发生情况与解决方案
  • 显示器关闭和鼠标键盘锁定工具
  • Pygame事件处理详解:键盘、鼠标与自定义事件
  • 树相关处理
  • 结合五层网络结构讲一下用户在浏览器输入一个网址并按下回车后到底发生了什么?
  • Eclipse 插件开发 1
  • 面试新收获-大模型学习
  • Python编程中的基本语句
  • 长短板理论——AI与思维模型【83】
  • 【C++11】右值引用和移动语义:万字总结
  • Docker Compose--在Ubuntu中安装Docker compose
  • 嵌入式C设计模式---策略模式
  • unity bug
  • SpringBoot程序的创建以及特点,配置文件,LogBack记录日志,配置过滤器、拦截器、全局异常
  • JAVA服务内存缓慢上涨,年轻代GC正常但Full GC频繁,如何定位?
  • [ACTF2020 新生赛]BackupFile题解
  • 用Podman Desktop创建自用的WSL-Fedora Linux子系统
  • LeetCode100题
  • linux blueZ 第五篇:高阶优化与性能调优——蓝牙吞吐、延迟与功耗全攻略
  • 铁路上海站五一假期预计发送446万人次,同比增长8.4%
  • 乌方称泽连斯基与特朗普进行简短会谈
  • 一年吸引30多万人次打卡,江苏这个渔村是怎么做到的?
  • 财政部:前3月国有企业利润总额10907.4亿元,同比增1.7%
  • 双拥主题歌曲MV:爱我人民,爱我军
  • 专访倪军:人要有终身学习能力,一张文凭无法像以往支撑那么多年