当前位置: 首页 > news >正文

[已解决]dify设置本地模型deepseek报错[Error 111]

原因:
在这里插入图片描述
总之,要将ollama默认的Tcp端口11434,暴露到网络中。

官方解决方案:https://docs.dify.ai/zh-hans/learn-more/use-cases/private-ai-ollama-deepseek-dify

如果你看不到,可以参考下面的内容。我用官方的指南也没能解决我的问题,最终是依靠deepseek解决的。

1.确保ollama服务启动并正常

在这里插入图片描述

2. 暴露TCP端口11434

在这里插入图片描述

3. 设置Dify中ollama模型的信息

我并没有按照下图去做。
在这里插入图片描述
而是,直接在Dify设置中,按照如下设置。关键是url:http://host.docker.internal:11434
在这里插入图片描述

4. 重启ollama

打开一个Powershell去重启,用cmd似乎无法运行命令。

$env:OLLAMA_HOST="0.0.0.0:11434"
ollama serve

在这里插入图片描述
当然,将OLLAMA_HOST直接设置在环境变量中,也可以。

总结

在这个过程中,重启了几次ollama,但没重启过Dify。最终结果:
置顶会多一个Ollama模型,也就是我们设置的deepseek-r1:32b模型。
在这里插入图片描述
然后就可以看到模型了:
设置本地模型成功
接下来就需要去验证,本地模型好不好用。

如果效果差强人意,我们还可以直连deepseek R1模型,毕竟有免费额度可用一段时间,价格也不算贵,DeepSeek属实是把价格打下来了。几块钱可以用挺久的。
目前价格:
右侧列是R1

相关文章:

  • vue深拷贝:1、使用JSON.parse()和JSON.stringify();2、使用Lodash库;3、使用深拷贝函数(采用递归的方式)
  • MemoryCache内存缓存数据
  • 算法仿真平台搭建1-FFMPEG+RtspSever快速搭建一个RTSP服务器
  • 【苍穹外卖】问题笔记
  • Pytorch框架06-现有网络模型(修改/使用/保存/加载)
  • Ubuntu 安装 Nginx并配置反向代理
  • 工作中遇到的设计模式整理
  • Uniapp 小程序接口封装与使用
  • 使用 Postman 访问 Keycloak 端点
  • 强化学习演进:GRPO 从何而来
  • 数组总结【代码随想录】
  • Docker数据卷操作实战
  • centos22.04 dpkg -l 输出状态标识含义
  • HTTP非流式请求 vs HTTP流式请求
  • 金融行业专题|某基金公司基于超融合信创平台支持人大金仓数据库的性能评测
  • 深入解析Tomcat目录结构
  • Grok 3 vs. DeepSeek vs. ChatGPT:2025终极AI对决
  • 【MATLAB中的图像数据结构】
  • 【奥卡姆剃刀原理-如何理解云计算和边缘计算 关键字摘取】
  • MATLAB下载安装教程(附安装包)2025最新版(MATLAB R2024b)
  • 监狱法修订草案提请全国人大常委会会议审议
  • 美乌总统梵蒂冈会谈,外交部:望有关各方继续通过对话谈判解决危机
  • 视觉周刊|2025上海车展的科技范
  • 商务部:将积极会同相关部门加快推进离境退税政策落实落地
  • 张家界乒乓球公开赛设干部职级门槛引关注,回应:仅限嘉宾组
  • 哈马斯同意释放剩余所有以方被扣押人员,以换取停火五年