当前位置: 首页 > news >正文

「Mac畅玩AIGC与多模态04」开发篇01 - 创建第一个 LLM 对话应用

一、概述

本篇介绍如何在 macOS 环境下,基于已部署完成的 Dify 平台和本地 LLM 模型(如 DeepSeek),创建并测试第一个基础对话应用,实现快速验证推理服务与平台交互功能。

二、应用创建流程

1. 通过首页创建应用

打开 Dify 后台首页,导航到「工作室」,点击「创建应用」栏的「创建空白应用」按钮。

在这里插入图片描述

将直接进入应用配置界面,开始填写应用信息。

2. 填写应用基本信息

  • 应用名称:第一个LLM对话应用
  • 应用类型:选择「聊天助手」
  • 应用描述:基础测试,仅使用本地LLM,不接入知识库与插件

点击「创建」,进入应用配置页面。

在这里插入图片描述

3. 配置大语言模型(LLM)

在应用配置界面,完成以下设置:

  • 模型名称:选择已注册的本地模型(如 deepseek-r1:1.5b
  • 温度:0.7(默认即可)
  • 最大标记:4096(默认或根据模型设置)

无需启用知识库,也无需启用插件。

4. 配置系统提示词

在「提示词」区域填写初始提示词,例如:

你是一个智能对话助手,请根据用户输入友好、准确地进行回答。

此提示词会作为模型推理时的基础指导。

5. 发布应用

完成配置后,点击右上角「发布」。

在这里插入图片描述

应用将出现在「探索」模块中的「工作区」列表中。


三、应用测试流程

1. 进入应用对话界面

在「探索」的「工作区」列表中,找到新建的应用,点击进入对话界面。

在这里插入图片描述

2. 开始对话测试

在对话框中输入测试问题,如:

  • 「你好,可以简单自我介绍一下吗?」
  • 「请帮我总结一下人工智能的发展历史。」
  • 「列举三个有效的时间管理方法。」

观察回复内容,确认:

  • 回答连贯
  • 推理流畅
  • 无明显异常中断

💡 若遇到加载异常,可检查:

  • Ollama服务是否正常运行
  • Dify连接配置是否正确
  • 网络代理设置是否影响本地推理接口

3. 流式输出体验(可选)

如果启用了流式输出功能(Streaming),可以在对话过程中看到回答内容实时流动生成,进一步验证用户体验效果。

在这里插入图片描述


四、总结

通过本篇流程,已基于本地部署的 LLM 模型与 Dify 平台,成功创建并测试了第一个基础对话应用。此应用不依赖知识库与插件,仅使用大语言模型进行推理交互,适合作为平台功能验证与后续应用开发的基础。后续可以在此基础上逐步接入知识库增强检索、插件扩展功能,构建更复杂的智能体应用体系。

相关文章:

  • 迷你世界UGC3.0脚本Wiki组件事件管理
  • 显存在哪里看 分享查看及优化方法
  • 分布式一致性算法起源思考与应用
  • 从“世界工厂”到“智造之都”:双运放如何改写东莞产业基因?
  • 云原生--核心组件-容器篇-5-Docker核心之-容器
  • 大模型、知识图谱和强化学习三者的结合,可以形成哪些研究方向?
  • 给视频自动打字幕:从Humanoid-X、UH-1到首个人形VLA Humanoid-VLA:迈向整合第一人称视角的通用人形控制
  • 蓝桥杯 1. 确定字符串是否包含唯一字符
  • Suna开源框架分析
  • 广度优先搜索(BFS)算法详解
  • openinstall+Web-to-app归因解决方案
  • 在linux系统中安装ktransformersV0.24部署deepseek r1模型并用open AI风格调用
  • SpringMVC 静态资源处理 mvc:default-servlet-handler
  • 01_Long比较值 类型相同值不同
  • 联想昭阳笔记本 风扇一键静音优化操作指南
  • RuoYi-Vue项目Docker镜像构建、推送与部署完整流程
  • FEKO许可安装
  • CF2096G Wonderful Guessing Game 构造
  • 强制缓存vs协商缓存
  • 2025系统架构师---黑板架构风格
  • 王毅会见俄罗斯外长拉夫罗夫
  • 中共中央、国务院关于表彰全国劳动模范和先进工作者的决定
  • 最近这75年,谁建造了上海?
  • 上海市市管干部任职前公示:赵亮拟为地区区长人选
  • 魔都眼·上海车展④|奔驰宝马保时捷……全球豪车扎堆首秀
  • “茉上茶田”傍大牌诱导加盟续:违规从事特许经营被罚没670余万元