LM Studio 教程:在 MacBook M1 上运行通义千问 Qwen 2.5 模型

之前写过一篇 M1 Max 用 Docker 部署 qwen 2.5 7b 大模型的简单记录,然而当时的测试结果实在太慢,慢到无法使用的程度,因此装完之后就没再用过。

不过今天重新使用 LM Studio 安装了相同的 7b 模型,结果却是速度快到飞起,达到了 48.25 tok/sec,是 Docker 部署方法的 20 倍以上。

我不知道是我当时安装方法有误,还是说 Docker 部署确实会比较慢,总之今天要分享的这个方法值得推荐给大家。

LM Studio 教程:在 MacBook M1 上运行通义千问 Qwen 2.5 模型插图

教程如下。

下载 LM Studio

下载适合你操作系统的版本,然后安装。

LM Studio 教程:在 MacBook M1 上运行通义千问 Qwen 2.5 模型插图1

安装完毕,启动 LM Studio 后,先点击右下角的齿轮,然后在 App Settings 中,可以将界面语言修改为中文:

LM Studio 教程:在 MacBook M1 上运行通义千问 Qwen 2.5 模型插图2

下载通义千问 Qwen 2.5 14b 模型

这里我们还是选择安装通义千问 Qwen 2.5 的模型,点击 LM Studio 中间顶部的「选择要加载的模型」按钮

LM Studio 教程:在 MacBook M1 上运行通义千问 Qwen 2.5 模型插图3

然后输入 Qwen 2.5,然后点击 Search 按钮,这里我选择 Qwen2.5-14B-Instruct-MLX-8bit 这个模型,带有 MLX 后缀的模型,是针对苹果 MLX 框架优化的版本,专门用于苹果 Silicon 芯片。

点击右下角绿色的 Download 按钮,即可下载这个模型。

LM Studio 教程:在 MacBook M1 上运行通义千问 Qwen 2.5 模型插图4

下载完成后,右下角就会弹出一个提示,点击 Load Model 即可载入这个模型

LM Studio 教程:在 MacBook M1 上运行通义千问 Qwen 2.5 模型插图5

问答测试

可以看到回答的速度达到了 19.49 tok/s,虽然比 7b 模型慢了一半,但也已经很可用了。

LM Studio 教程:在 MacBook M1 上运行通义千问 Qwen 2.5 模型插图6

关联阅读

如果你想在 Mac 本地跑大模型并把它接入 Notion 工作流,推荐看看 FLO.W——一套帮你整合生活与工作的 Notion 系统。 了解 FLO.W →

本站所有文章,除非特别说明或标注,均为本站原创发布。转载本文需附上本文链接,未经授权,禁止大篇幅复制、盗用、采集或发布本站内容至其他网站、书籍等各类媒体平台。

AI

零基础使用 Bolt.new 制作课程宣传页,6小时从构思到上线

2025-1-5 13:30:33

AI

在 Obsidian 中集成 AI 问答功能:Obsidian Copilot + DeepSeek 设置教程

2025-1-13 17:57:54

七天重构信息秩序

用一套系统管理

笔记、任务、项目与人生

X