当前位置: 首页 > news >正文

Unity AI-使用Ollama本地大语言模型运行框架运行本地Deepseek等模型实现聊天对话(一)

一、Ollama介绍

官方网页:Ollama官方网址
中文文档参考:Ollama中文文档
相关教程:Ollama教程

Ollama 是一个开源的工具,旨在简化大型语言模型(LLM)在本地计算机上的运行和管理。它允许用户无需复杂的配置即可在本地部署和运行如Llama 3.3、DeepSeek-R1、Phi-4、Mistral、Gemma 2 和其他模型,适合开发者、研究人员以及对隐私和离线使用有需求的用户。

二、核心功能

  1. 本地运行模型​
    直接在个人电脑或服务器上运行模型,无需依赖云服务,保障数据隐私和离线可用性。
  2. ​多平台支持​
    支持 macOS、Linux、Windows,并提供 Docker 镜像,方便跨平台部署。
  3. ​模型管理​
    通过命令行轻松下载、更新或删除模型(如 ollama run llama2)。
  4. API 集成​
    提供 RESTful API,便于与其他应用(如 Python 脚本、自定义工具)集成。
  5. 多模型支持​
    兼容Llama 3.3、DeepSeek-R1、Phi-4、Mistral、Gemma 2 等,部分支持自定义模型加载。

三、Ollama安装

1、硬件要求

内存至少 8GB RAM,运行较大模型时推荐 16GB 或更高。部分大模型需显卡加速(如 NVIDIA GPU + CUDA)。

2、下载安装

官网
官方网站下载对应版本。
下载
下载完成后,打开安装程序并按照提示完成安装。
安装完成可以打开命令行管理器(CMD)或Powershell输入下面指令验证安装是否成功

ollama --version

成功

3、运行模型

ollama run llama3.2

执行以上命令如果没有该模型会去下载 llama3.2 模型

ollama run deepseek-r1:7b

如果使用deepseekR1模型将命令替换为deepseek即可,7b是运行的模型大小

支持的模型访问ollama模型
对话
输入内容实现与模型对话(示例为llama3.2模型)

相关文章:

  • 马井堂-大语言模型对教学的应用分析
  • 网络基础概念:从菜鸟到入门
  • 面试算法高频08-动态规划-03
  • 新环境注册为Jupyter 内核
  • Uniapp:vite.config.js全局配置
  • 可解释人工智能(XAI):让机器决策透明化
  • AI - LangChain - 介绍(1)
  • 成员方法的详细说明(结合Oracle官方文档)
  • 9.5/Q1,GBD数据库最新高分文章解读
  • Cursor
  • JVM 内存分配策略
  • spring cloud 服务注册与发现(Service registration and discovery)
  • 常见算法的总结与实现思路
  • Flutter 学习之旅 之 flutter 作为 module ,在 Android 的界面中嵌入Flutter界面功能的简单整理
  • 研究:大模型输出一致性:确定性与随机性的场景化平衡
  • 【Spark入门】Spark架构解析:组件与运行机制深度剖析
  • IP SSL证书常见问题:快速实现HTTPS加密
  • 【前端】【面试】如何实现图片渐进式加载?有几种方法
  • 根据模板语法生成和导出Word文档的工具类
  • 【优选算法 | 二分查找】二分查找算法解析:如何通过二段性优化搜索效率
  • 朝鲜派兵库尔斯克是否有助于解决乌克兰危机?外交部回应
  • 国内生产、境外“游一圈”再进保税仓,这些“全球购”保健品竟是假进口
  • 核电开闸!国常会核准10台新机组,拉动超2000亿投资,新项目花落谁家?
  • 湖州通告13批次不合格食品,盒马1批次多宝鱼甲硝唑超标
  • 5145篇报道中的上海车展:40年,什么变了?
  • 从地下金库到地上IP,看海昏汉文化“最美变装”