MacOS 10.15上能跑大语言模型吗?
MacOS 10.15上能跑大语言模型吗?
- 下载安装Ollama
- 运行大语言模型
- 引申出的问题
MacOS 10.15.7(发布于2020年9月)作为已经发布了将近5年的系统版本能够运行当今流行的大语言模型吗?这篇文章简要介绍了在MacOS 10.15上通过Ollama运行deepseek-r1模型的过程。
下载安装Ollama
Ollama是一个开源工具,可以帮助我们在本地快速部署和运行大语言模型。访问Ollama官网,可以看到它支持三大主流操作系统Windows、Linux和Mac。macOS需要macOS 11 Big Sur或更高版本。


命令行工具安装完成后,就可以在终端里使用 ollama 命令了。
运行大语言模型
打开终端输入下面的命令
ollama run deepseek-r1:14b
这条命令会下载并运行大约9GB左右的deekseep-r1 14b的大模型。下载完成后,在ollama命令行中输入文字就可以向deepseek提出各种问题了。于是我敲下了我的问题 1加1等于几
接着电脑进入了近乎无响应的状态,鼠标和键盘响应速度非常慢,CPU占用率非常高。我就这样让deepseek肆意的跑了20多分钟,最终在屏幕上得到了四五个汉字输出,看起来deepseek还在努力的工作,但我已经无法忍受了。调出任务管理器杀掉了ollama进程,电脑恢复正常。
是不是我的问题太复杂了,导致deepseek需要消耗很多的资源?于是我简化了我的问题,直接把这个算式 1+1=? 给到deepseek。用电脑计算器是可以瞬间得到正确答案的,但deepseek好像还是把问题想复杂了,在苦苦等待N分钟后,电脑死机了。
难道这台产于2012年的Macbook Pro真的没法运行大语言模型吗?突然想到deepseek还有参数量更小的模型。于是输入下面的命令去下载并运行最小参数量的deepseek-r1模型。
ollama run deepseek-r1:1.5b
同样的问题给到deepseek,这一次很快得到了deepseek的答复。
看来只要选择合适的模型,MacOS 10.15也是能跑起来大语言模型的。
引申出的问题
-
如何挑选合适的大模型呢?
在 Ollama的library页面 能找到它支持的所有模型,这么多模型该如何挑选呢?通过进一步的调研,我了解到不同的大模型对硬件资源(显存、内存、CPU)的需求是不同的。不同的模型有不同的特性,有些模型还会依赖特定的CPU,比如AMD的GAIA。选择合适的大模型也是有学问的呢。
-
为什么我手头的Macbook Pro 2012运行不了deepseek-r1:14b呢?什么电脑能运行14b的模型呢?
Macbook Pro 2012 硬件手册中查到硬件配置:4核CPU、集成显卡和Nvidia显卡(1GB显存)智能切换、 8GB内存。和近几年的苹果电脑比确实有很大的差距。Macbook Pro 2022 可以轻松运行14b的deepseek-r1,硬件配置:8核CPU、10核GPU、16核神经网络引擎、24GB内存。估计2025年的电脑运行大模型应该有更好的效果。
-
本地电脑运行起来的大模型有什么用呢?
deepseek、chatgpt等等都可以在网页里运行,有什么必要在本地电脑运行大模型呢?后续再讲吧 : - )