【AI平台】n8n入门2:第一个工作流,调用本地大模型
前言
n8n是一款开源的低代码自动化工具,专注于AI工作流构建,支持灵活的自定义与集成。
就是可以把大模型和其他工具联合起来,这就厉害了。而且,免费功能又强大,目前很火,来研究一下。
准备
n8n的安装见前面文档:
【AI平台】n8n入门1:详细介绍n8n的多种安装方式(含docer图形化安装n8n)-CSDN博客
n8n是英文版(没找到中文切换到地方),我给浏览器安装了翻译插件,需要的可以参考:
【实用】chrome浏览器安装翻译插件-CSDN博客
ollama的安装,和部署deepseek模型,见:
AI入门:AI模型管家婆ollama的安装和使用-CSDN博客
AI入门2:本地AI部署,用ollama部署deepseek(私有化部署)-CSDN博客
正经开始
功能说明
n8n调用ollama的数据模型,进行对话。
创建
进入n8n软件:http://localhost:5678/,创建工作流:
改名,我这里取名“firstExample”,然后点击“添加第一步”,触发选择“在聊天信息时”:
然后,点击“返回画布”,回到主界面:
在主界面,点击“+”,选择“人工智能”:
选择“基础LLM链”:
选择“Connected Chat Trigger Node”【比选,不然后面选不到ollama的模型】,然后返回,
如图点击“+”,选择“Ollama 聊天模型”:
配置凭证:
如果你的ollama是在11434端口运行,你填写:http://localhost:11434/,那么保存后,提示出错:
http://host.docker.internal:11434/
(查了一下,配置n8n时使用http://host.docker.internal:11434地址的原因,是为了让n8n能够访问运行在Docker容器中的Ollama服务,在本地host中,docker安装时,把host.docker.internal及对应的本地ip,写到了本机的host文件里,大家可以查一下自己的host文件。)
保存,链接成功后,关闭窗口,继续选择模型(这些是本地ollama上安装的模型),选择一个你想用的:
注:查询本地ollama安装了哪些大模型,在dos窗口用命令:ollama list
返回主界面:
测试
点击“打开聊天”,问个问题:
遗留问题
虽然看着成果了,但后台有docker报错了:
2025-04-25 11:22:26 Error in handler N8nLlmTracing, handleLLMEnd: TypeError: fetch failed
界面如下:
查看了几个地方,信息记录一下:
OLLAMA_HOST应设置为0.0.0.0:11434,如果写错了,会提示错误
错误界面:
提示找不到的地址,不过这个不是本机IP,也不是host里面配的地址,目前还没找到:
2、OLLAMA_HOST、本机host文件都改正了,http://host.docker.internal:11434/
http://localhost:11434/,都访问正常,服务器端错题提示“Error in handler N8nLlmTracing, handleLLMEnd: TypeError: fetch failed”也没有解决:
结尾
走过路过的朋友,你们遇到这个问题了没?如果能解决,给指导一下,🙇♀️🙇♀️🙇♀️
虽然总有解决不了的问题,但却不能阻挡我们前进的脚步👣 👣 👣