当前位置: 首页 > news >正文

【AI】SpringAI 第四弹:接入本地大模型 Ollama

Ollama 是一个开源的大型语言模型服务工具。它的主要作用是帮助用户快速在本地运行大模型, 简化了在 Docker 容器内部署和管理大语言模型(LLM)的过程。

1. 确保Ollama 已经启动

# 查看帮助文档
ollama -h# 自动下载并启动
ollama run deepseek-r1:1.5b

2. 项目添加依赖

<dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-starter-model-ollama</artifactId>
</dependency>

3. 配置 yml 配置文件

spring:ai:ollama:base-url: http://127.0.0.1:11434 # 默认端口号chat:options:model: deepseek-r1:1.5b

4. 编写代码

@RestController
@RequestMapping("/ol")
public class OllamaController {@Resourceprivate OllamaChatModel chatModel;@RequestMapping("/chat")public String chat(String prompt) {String call = chatModel.call(prompt);System.out.println(call);return call;}
}

相关文章:

  • 如何正确选择培养基种类
  • PaddlePaddle线性回归详解:从模型定义到加载,掌握深度学习基础
  • MacOS 10.15上能跑大语言模型吗?
  • HCIP(OSPF)(3)
  • qt报“use multi-arg instead [clazy-qstring-arg]”警告的解决方法
  • QML FontDialog:使用FontDialog实现字体选择功能
  • 如何Ubuntu 22.04.5 LTS 64 位 操作系统部署运行SLAM3! 详细流程
  • SAP获利分析KEA0-值字段无法被分配,原因既然是。。
  • Node.js技术原理分析系列8——将Node.js内置模块外置
  • 机器学习超参数优化全解析
  • 一洽智能硬件行业解决方案探索与实践
  • 德施曼重磅发布五大突破性技术及多款重磅新品,开启AI智能管家时代
  • 2025年五大ETL数据集成工具推荐
  • mcpo的简单使用
  • .NET仓储层在 using 块中创建 SqlSugarClient 的风险
  • 射频系统级芯片集成技术研究
  • echarts模板化开发,简易版配置大屏组件-根据配置文件输出图形和模板(vue2+echarts5.0)
  • Vue 3 Watch 监听 Props 的踩坑记录
  • Git常用操作命令
  • Qt 下载的地址集合
  • 白宫称中美贸易协议谈判取得进展,外交部回应
  • 北京朝阳法院:未经许可使用他人剧本语句和情节构成侵权
  • 中国空间站已在轨实施了200余项科学与应用项目
  • 载人登月总体进展顺利
  • 从香料到文化,跟着陈晓卿寻味厦门
  • “沉默”的智驾:余承东不喊“遥遥领先”,何小鹏连夜改口 | 电厂