当前位置: 首页 > news >正文

DB-GPT 最新0.7.0版本Windows 部署

文档:官方文档

Data Agents

我这里就说下细节,我是

小兵我是在在服务器里部署的,不建议小的服务器部署,会GG了

1. 前置环境

因为DB-GPT 越来越强大了,只用pip来管理依赖包的话不太优雅,因此使用 uv 来管理。我最近写的项目也再慢慢转 uv 了,也推荐大家慢慢转过来。本教程讲解以 代理模型 为例, 也就是 openai-proxy

1.1 uv 安装
 

powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"
当然我这里用到的是conda来进行虚拟环境
1.2项目拉取
git clone https://github.com/eosphoros-ai/DB-GPT.git
cd DB-GPT

 

弄好后,记得把sqlite3 的数据也弄好哦,特别提醒

拉取完后,我是本地部署的

1.3Local(本地模型):
uv sync --all-packages --extra "base" --extra "cuda121" --extra "hf" --extra "rag" --extra "storage_chromadb" --extra "quant_bnb" --extra "dbgpts"

安装完包后

可以提前把模型下载

git clone https://www.modelscope.cn/Qwen/Qwen2.5-14B-Instruct.gitgit clone https://hf-mirror.com/BAAI/bge-large-zh-v1.5.git

这里大概33G+,请耐心等待

2.最后

1步骤
cd E:\DB-GPT\

2进入环境
conda activate dbgpt_env_7

3.执行系统运行
uv run dbgpt start webserver --config .\configs\dbgpt-local-qwen.toml

这里提醒一下,local本地一定运行对应的配置文件

[system]
# Load language from environment variable(It is set by the hook)
language = "${env:DBGPT_LANG:-zh}"
api_keys = []
encrypt_key = "your_secret_key"# Server Configurations
[service.web]
host = "0.0.0.0"
port = 5670[service.web.database]
type = "sqlite"
path = "pilot/meta_data/dbgpt.db"[rag.storage]
[rag.storage.vector]
type = "chroma"
persist_path = "pilot/data"# Model Configurations
[models]
[[models.llms]]
name = "Qwen2.5-0.5B-Instruct"
provider = "hf"
# If not provided, the model will be downloaded from the Hugging Face model hub
# uncomment the following line to specify the model path in the local file system
# path = "the-model-path-in-the-local-file-system"
path = "models/Qwen2.5-0.5B-Instruct"[[models.embeddings]]
name = "BAAI/bge-large-zh-v1.5"
provider = "hf"
# If not provided, the model will be downloaded from the Hugging Face model hub
# uncomment the following line to specify the model path in the local file system
# path = "the-model-path-in-the-local-file-system"
path = "models/BAAI/bge-large-zh-v1.5"

配置文件根据实际的情况来改

特别注意

# Model Configurations
[models]
[[models.llms]]
name = "Qwen2.5-0.5B-Instruct"
provider = "hf"
# If not provided, the model will be downloaded from the Hugging Face model hub
# uncomment the following line to specify the model path in the local file system
# path = "the-model-path-in-the-local-file-system"
path = "models/Qwen2.5-0.5B-Instruct"[[models.embeddings]]
name = "BAAI/bge-large-zh-v1.5"
provider = "hf"
# If not provided, the model will be downloaded from the Hugging Face model hub
# uncomment the following line to specify the model path in the local file system
# path = "the-model-path-in-the-local-file-system"
path = "models/BAAI/bge-large-zh-v1.5"

这里的路径和模型名称一定要对上,否则无法加载

提示如果本地部署,内容不够建议32G以上,这是最少的。

相关文章:

  • Differentiable Micro-Mesh Construction 论文阅读
  • 龙虎榜——20250415
  • centos时间不正确解决
  • GPTNet如何革新创意与效率
  • 本地实现Rtsp视频流推送
  • 树莓派学习专题<5>:使用V4L2驱动获取摄像头数据--概览
  • 多模态大模型MLLM基础训练范式 Pre-train + Instruction FineTuning
  • GPT-4o Image Generation Capabilities: An Empirical Study
  • [区块链] 持久化运行区块链 | 并通过HTTP访问
  • Visio绘图工具全面科普:解锁专业图表绘制新境界[特殊字符]
  • 安装fvm可以让电脑同时管理多个版本的flutter、flutter常用命令、vscode连接模拟器
  • 3款顶流云电脑与传统电脑性能PK战:START云游戏/无影云/ToDesk云电脑谁更流畅?
  • vue3中的新特性
  • SpringMVC 执行流程
  • FreeRTOS入门与工程实践-基于STM32F103(二)(互斥量,事件组,任务通知,软件定时器,中断管理,资源管理,调试与优化)
  • 第二十一讲 XGBoost 回归建模 + SHAP 可解释性分析(利用R语言内置数据集)
  • 系统环境变量有什么实际作用,为什么要配置它
  • 深入剖析 C/S 与 B/S 架构及网络通信基础
  • Android Jni(二)加载调用第三方 so 库
  • portainer.io篇
  • 当代视角全新演绎,《风雪夜归人》重归首都剧场
  • 第三款在美获批的国产PD-1肿瘤药来了,影响多大?
  • 传媒湃︱《金陵晚报》副刊“雨花石”5月起改为免费刊登
  • 好未来:2025财年收入增长51%,下个财年提高整体盈利能力是首要任务
  • 政治局会议:创设新的结构性货币政策工具,设立新型政策性金融工具,支持科技创新、扩大消费、稳定外贸等
  • 中国铝业首季“开门红”:净利润超35亿元,同比增加近六成