「Mac畅玩AIGC与多模态02」部署篇01 - 在 Mac 上部署 Ollama + Open WebUI
一、概述
本篇介绍如何在 macOS 环境下本地部署 Ollama 推理服务,并通过 Open WebUI 实现可视化交互界面。该流程无需 CUDA 或专用驱动,适用于 M 系列或 Intel 芯片的 Mac,便于快速测试本地大语言模型能力。
二、部署流程
1. 环境准备
- 安装 Homebrew(如尚未安装):
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
💡 如使用科学上网但终端依然无法连接 GitHub,可使用以下方式配置终端代理。
临时生效方式(适用于当前终端会话):
export http_proxy=http://127.0.0.1:7890
export https_proxy=http://127.0.0.1:7890
永久生效方式(适用于所有终端):
将以下内容追加至 ~/.zshrc
或 ~/.bash_profile
: