「Mac畅玩AIGC与多模态04」开发篇01 - 创建第一个 LLM 对话应用
一、概述
本篇介绍如何在 macOS 环境下,基于已部署完成的 Dify 平台和本地 LLM 模型(如 DeepSeek),创建并测试第一个基础对话应用,实现快速验证推理服务与平台交互功能。
二、应用创建流程
1. 通过首页创建应用
打开 Dify 后台首页,导航到「工作室」,点击「创建应用」栏的「创建空白应用」按钮。
将直接进入应用配置界面,开始填写应用信息。
2. 填写应用基本信息
- 应用名称:第一个LLM对话应用
- 应用类型:选择「聊天助手」
- 应用描述:基础测试,仅使用本地LLM,不接入知识库与插件
点击「创建」,进入应用配置页面。
3. 配置大语言模型(LLM)
在应用配置界面,完成以下设置:
- 模型名称:选择已注册的本地模型(如
deepseek-r1:1.5b
) - 温度:0.7(默认即可)
- 最大标记:4096(默认或根据模型设置)
无需启用知识库,也无需启用插件。
4. 配置系统提示词
在「提示词」区域填写初始提示词,例如:
你是一个智能对话助手,请根据用户输入友好、准确地进行回答。
此提示词会作为模型推理时的基础指导。
5. 发布应用
完成配置后,点击右上角「发布」。
应用将出现在「探索」模块中的「工作区」列表中。
三、应用测试流程
1. 进入应用对话界面
在「探索」的「工作区」列表中,找到新建的应用,点击进入对话界面。
2. 开始对话测试
在对话框中输入测试问题,如:
- 「你好,可以简单自我介绍一下吗?」
- 「请帮我总结一下人工智能的发展历史。」
- 「列举三个有效的时间管理方法。」
观察回复内容,确认:
- 回答连贯
- 推理流畅
- 无明显异常中断
💡 若遇到加载异常,可检查:
- Ollama服务是否正常运行
- Dify连接配置是否正确
- 网络代理设置是否影响本地推理接口
3. 流式输出体验(可选)
如果启用了流式输出功能(Streaming),可以在对话过程中看到回答内容实时流动生成,进一步验证用户体验效果。
四、总结
通过本篇流程,已基于本地部署的 LLM 模型与 Dify 平台,成功创建并测试了第一个基础对话应用。此应用不依赖知识库与插件,仅使用大语言模型进行推理交互,适合作为平台功能验证与后续应用开发的基础。后续可以在此基础上逐步接入知识库增强检索、插件扩展功能,构建更复杂的智能体应用体系。