← 返回首页

🛠️ 软件工具

程序员 · 设计师 · 运营 · 普通用户 · 更新:2026-04-18

R03 软件工具报告:按岗位/场景分类的本地 AI 软件

调研日期:2026-04-18 | 数据有效期:2026 Q2 | 状态:✅ 完成

核心原则:开源免费优先,隐私为王,傻瓜方案放首位


一、按岗位角色分类


1.1 程序员 / 开发者

核心诉求: 代码补全、调试、文档生成、本地代码库问答

核心工具对比

工具 开源/收费 GitHub Stars 定位 安装难度 本地模型支持
Continue.dev 开源免费 23k+ VS Code/JetBrains 插件,AI 编程助手 ⭐⭐ Ollama/任意 OpenAI 兼容 API
Twinny 开源免费 4k+ VS Code 轻量插件,专注代码补全 Ollama 原生集成
Cline 开源免费 58k+ VS Code Agent,需人工审批每步操作 ⭐⭐ Ollama/本地 API
Aider 开源免费 41k+ 命令行 AI 结对编程,Git 原生 ⭐⭐⭐ Ollama/任意 OpenAI 兼容
Cursor 免费+付费 闭源 AI-first IDE,内置多模型选择 可接本地 Ollama(Pro 功能)
OpenCode 开源 117k+ 终端 AI 编程代理,增长最快 ⭐⭐⭐ 多后端支持

推荐方案

完全免费方案(新手推荐):

VS Code + Continue.dev + Ollama + DeepSeek-Coder-V2 7B

极客方案(命令行爱好者):

Aider + Ollama + Qwen2.5-Coder 14B

对比 GitHub Copilot:

维度 GitHub Copilot Continue.dev + Ollama
月费 $10/月 免费
隐私 代码上传 GitHub 完全本地
速度 快(云端 GPU) 取决于本地硬件
断网可用
中文支持 良好 取决于模型

配合 Ollama 的具体配置(Continue.dev):

# ~/.continue/config.yaml
models:
  - name: Qwen2.5-Coder 7B (Local)
    provider: ollama
    model: qwen2.5-coder:7b
    apiBase: http://localhost:11434
tabAutocompleteModel:
  name: qwen2.5-coder:1.5b  # 轻量补全,响应快
  provider: ollama

中国用户注意: Continue.dev 插件在 VS Code 国内市场可直接安装;Ollama 国内镜像见第五部分。


1.2 设计师 / 创意工作者

核心诉求: 图像生成、风格迁移、LoRA 微调、工作流自动化

核心工具对比

工具 开源/收费 GitHub Stars 定位 入门难度 特色
ComfyUI 开源免费 84k+ 节点式工作流,极致灵活 ⭐⭐⭐⭐ 速度最快,批量生图 2x A1111
Forge (WebUI) 开源免费 10k+ A1111 的高性能分支 ⭐⭐⭐ 速度比 A1111 快 30-75%,VRAM 优化
AUTOMATIC1111 开源免费 155k+ 最成熟的 SD WebUI ⭐⭐⭐ 生态最丰富,插件最多
InvokeAI 开源免费 24k+ 创意工作流,统一画布 ⭐⭐⭐ 类 Photoshop 体验,节点+画布结合
Krita AI (插件) 开源免费 Krita 内置 AI 绘图 ⭐⭐ 画师友好,与传统数字绘画无缝结合
Fooocus 开源免费 41k+ 极简 SD,傻瓜操作 无需懂参数,一键生图

2026 年推荐策略

模型推荐

场景 推荐模型 VRAM 需求 特点
写实人像 Juggernaut XL 8GB SDXL 最强写实
中文风格 Kolors / Tongyi Wanxiang 12GB 国产,中文提示词效果极好
通用生图 FLUX.1 Dev (Q8) 12GB 2025-2026 最强开源模型
轻量设备 SDXL Turbo 6GB 实时预览,速度极快

中国用户注意: 所有模型可从 ModelScope 魔搭(modelscope.cn)或 LiblibAI(liblib.art)下载,无需访问 Civitai/HuggingFace。


1.3 内容创作者 / 视频从业者

核心诉求: 视频转录、字幕生成、文案写作、配音替换

核心工具对比

工具 开源/收费 平台 入门难度 特色
MacWhisper 免费+Pro版 macOS GUI 最简洁,一键转录,Pro $29 一次性
Whisper Desktop (Const-me) 开源免费 Windows ⭐⭐ Windows 最优 GUI,GPU 加速
Buzz 开源免费 全平台 最简 GUI,跨平台,支持 SRT/VTT 导出
Whisper Notes $6.99 买断 iOS/macOS 完全离线,隐私安全,$6.99 一次性
faster-whisper 开源免费 命令行 ⭐⭐⭐ 比原版 Whisper 快 4x,显存减半
Subtitle Edit 开源免费 Windows ⭐⭐ 字幕编辑+AI 生成二合一,功能最全
Whisply 开源免费 命令行/GUI ⭐⭐ 批量转录+说话人分离,跨平台 CLI

本地视频字幕一键生成方案

方案A — Windows 傻瓜(推荐):

Subtitle Edit + Whisper 插件
→ 拖入视频 → 选语言 → 生成字幕 → 导出 SRT
无需任何命令行操作

方案B — macOS 简单:

MacWhisper(免费版)
→ 拖入视频/音频 → 一键转录 → 复制或导出
中文准确率极高(使用 Whisper Large V3 Turbo)

方案C — 批量处理(极客):

pip install faster-whisper
faster-whisper video.mp4 --model large-v3-turbo --language zh --output_format srt
# 比云端服务快 4x,完全免费,无次数限制

本地文案写作: 配合 Jan 或 LM Studio + Qwen3 7B,实现:
- 视频标题/描述批量生成
- 小红书/微博文案改写
- 多平台格式自适应

中国用户注意: Whisper 模型从 ModelScope 下载:modelscope download --model=openai/whisper-large-v3-turbo


1.4 知识工作者 / 研究者

核心诉求: 笔记整理、文献阅读、本地知识库、论文问答

核心工具对比

工具 开源/收费 GitHub Stars 定位 入门难度
AnythingLLM 开源免费 53k+ 最全功能的本地 RAG 平台 ⭐⭐
Obsidian + Smart Connections 核心免费/插件免费 笔记+语义搜索,本地知识图谱 ⭐⭐
PrivateGPT 开源免费 54k+ 极简私密文档问答 ⭐⭐⭐
Onyx (旧名 Danswer) 开源+企业版 13k+ 企业级知识库,权限管理完善 ⭐⭐⭐⭐
Perplexica 开源免费 18k+ 本地版 Perplexity,联网搜索+RAG ⭐⭐⭐
Zotero + ZoteroGPT 插件 Zotero 免费/插件免费 文献管理+AI 摘要,学术首选 ⭐⭐
Open WebUI 开源免费 132k+ 最强全能平台,内置 RAG ⭐⭐

本地 RAG 知识库核心方案

方案A — 傻瓜型(推荐新手):

AnythingLLM Desktop 版
→ 下载安装包(约 200MB)
→ 导入 PDF/Word/Markdown 文件
→ 用中文提问(配合 Qwen3 7B)
特点:全图形界面,5分钟建好私人知识库

方案B — 学术研究者:

Zotero + ZoteroGPT 插件 + Ollama
→ Zotero 管理文献引用
→ ZoteroGPT 插件本地读取 PDF 全文
→ Ollama 提供推理能力
→ 实现"论文总结/摘要提取/跨文献问答"

方案C — 极客/团队:

Obsidian + Smart Connections 插件 + Ollama
→ Vault 作为本地知识库
→ Smart Connections 生成语义 Embedding
→ 自然语言搜索笔记关联
→ LLM Wiki 插件:直接问答整个笔记库

方案D — 企业/团队:

Open WebUI(Docker 部署)
→ 内置 RAG、多用户、权限管理
→ 支持 9 种向量数据库
→ 知识库可按部门隔离

推荐 Embedding 模型(本地):
- 中文首选:nomic-embed-text(Ollama 可直接拉取)
- 多语言:mxbai-embed-large(1.5GB,效果最优)


1.5 运营 / 市场人员

核心诉求: 文案生成、多语言翻译、数据分析报告、社媒内容批量生产

核心工具对比

工具 开源/收费 入门难度 特色
LM Studio 免费(闭源) 最简 UI,内置模型商店,完全图形化
Jan 开源免费 界面美观,Apple 设计感,离线优先
Open WebUI 开源免费 ⭐⭐ 功能最全,支持 RAG/多用户/插件
LibreTranslate 开源免费 ⭐⭐ 本地部署翻译 API,100% 离线
Argos Translate 开源免费 桌面 GUI 翻译,30+ 语言,无需联网

非技术用户傻瓜配置

第一步 — 安装 LM Studio(零命令行):
1. 访问 lmstudio.ai → 下载安装(Windows/Mac/Linux,约 300MB)
2. 内置模型浏览器 → 搜索 Qwen3-7B → 点击下载
3. 打开聊天界面 → 开始用中文对话

文案生成工作流:

场景:小红书文案批量生产
工具:LM Studio + Qwen3 7B(或 Jan + 相同模型)
方式:
  - 输入产品信息 + 目标人群
  - 让 AI 生成 5 个不同风格的标题
  - 批量改写不同平台格式
  - 所有内容本地生成,竞品无法监测

多语言翻译(商务场景):

工具 语言对 质量 离线 中国可用
Argos Translate 30+语言 中等 完全离线
LibreTranslate 30+语言 中等 可离线 需自部署
Ollama + Qwen3 多语言 高(LLM级) 完全离线
DeepL(本地版) 主流语言 最高 需订阅 部分可用

实用建议: 翻译质量需求高时,用 Ollama + Qwen3 7B 直接翻译(LLM 翻译质量远超专用小模型),速度比 DeepL API 慢但完全免费离线。


1.6 普通用户(完全傻瓜)

核心诉求: 聊天助手、语音输入、日常问答,不想碰命令行

核心工具对比

工具 平台 开源/收费 安装方式 中文支持 推荐度
LM Studio Win/Mac/Linux 免费(闭源) 官网下载安装包 界面中文 ⭐⭐⭐⭐⭐
Jan Win/Mac/Linux 开源免费 官网下载安装包 支持中文 ⭐⭐⭐⭐
Enchanted iOS/macOS 开源免费 App Store 支持中文 ⭐⭐⭐⭐
PocketPal AI iOS/Android 开源免费 App Store / Google Play 支持中文 ⭐⭐⭐⭐
GPT4All Win/Mac/Linux 开源免费 官网下载安装包 支持中文 ⭐⭐⭐

傻瓜安装指南

桌面端(Windows 用户首选 — LM Studio):
1. 搜索 "LM Studio" → 下载 .exe 安装包
2. 打开 → 左侧菜单"Models" → 搜索"Qwen3 7B" → 下载(约 4GB)
3. 切换到"Chat"标签页 → 选择刚下载的模型 → 开始聊天
4. 全程无需命令行,操作与普通软件无异

手机端(iOS 用户 — Enchanted):
1. App Store 搜索"Enchanted LLM" → 免费安装
2. 需要配合家里电脑运行 Ollama(同一局域网)
- 或使用 PocketPal AI(完全在手机端运行,无需电脑)
3. PocketPal 支持 1.5B-3B 小模型,手机直接推理

Android 用户:
- Google Play 搜索"PocketPal AI" → 免费下载
- 下载 Qwen3 1.5B 或 Gemma3 2B(约 1GB),手机可流畅运行
- 完全离线,不消耗流量


二、按技术门槛分层

层级 代表工具 安装难度 中文支持 推荐人群
傻瓜级(点击安装) LM Studio / Jan / Enchanted / PocketPal 界面支持中文 所有用户
进阶级(简单配置) Ollama + Open WebUI / AnythingLLM ⭐⭐ 支持中文模型 对技术有基础了解
极客级(命令行) llama.cpp / ComfyUI / faster-whisper / vllm ⭐⭐⭐ 英文为主 愿意看文档的用户
开发者级(API 集成) Ollama API / LlamaIndex / LangChain / LangGraph ⭐⭐⭐⭐ 英文 程序员

各层级详解

傻瓜级工具横评

维度 LM Studio Jan GPT4All
界面美观度 ⭐⭐⭐⭐⭐ ⭐⭐⭐⭐⭐ ⭐⭐⭐
模型商店 内置(HuggingFace 集成) 内置 内置
MCP 支持 是(2026 新增)
开源状态 闭源免费 开源 MIT 开源 MIT
最大优势 功能最全,MCP 支持 界面最美,轻量 最老牌,社区大
最大劣势 闭源 功能相对少 界面较旧
适合人群 大众推荐 追求颜值+开源的用户 早期用户

进阶级:Ollama + Open WebUI

Open WebUI 2026 核心能力:
- 132k+ GitHub Stars,282M+ 下载次数
- 内置 RAG(支持 9 种向量数据库)
- 多用户权限管理(RBAC)
- 支持 15+ 网络搜索源
- Python 函数工具调用
- LDAP/AD 企业认证

# 一条命令启动(需要 Docker)
docker run -d -p 3000:80 \
  -v open-webui:/app/backend/data \
  --add-host=host.docker.internal:host-gateway \
  ghcr.io/open-webui/open-webui:main
# 访问 http://localhost:3000

极客级:llama.cpp


三、按场景痛点推荐


场景 1:免费语音输入法(三端方案)

iOS

工具 收费 离线 中文准确率 特点
Whisper Notes $6.99 买断 完全离线 ⭐⭐⭐⭐⭐ 最优,一次买断,隐私安全
PocketPal AI 免费 完全离线 ⭐⭐⭐⭐ 开源,同时支持 LLM 对话
Superwhisper 免费+Pro 离线可用 ⭐⭐⭐⭐⭐ Mac+iOS 通用,体验最顺滑
Apple 自带听写 免费 部分离线 ⭐⭐⭐⭐ 对普通话支持已很好,首选零成本

傻瓜推荐: 先用 iPhone 自带听写,有隐私需求再购入 Whisper Notes($6.99 一次性)

Android

工具 收费 离线 特点
WhisperInput 开源免费 完全离线 系统级输入法集成,任何 App 可用
SpeechNote 免费+Pro 可离线 多引擎支持,界面简洁
PocketPal AI 免费 完全离线 LLM+语音一体化
Gboard(谷歌键盘) 免费 需联网 覆盖最广,但需联网

傻瓜推荐: SpeechNote(Play Store 直接安装,设置离线模式下载 Whisper 模型)

PC(Windows/Mac)

工具 平台 收费 特点
Superwhisper Mac+Win+iOS 免费+Pro 全平台最顺滑的语音输入工具
Whisper Desktop(Const-me) Windows 开源免费 Windows 最优 GUI,GPU 加速
MacWhisper macOS 免费+Pro $29 macOS 最易用,拖放即转录
Buzz 全平台 开源免费 跨平台,GUI 简单,SRT 导出
faster-whisper 全平台 CLI 开源免费 批量处理首选,速度最快

场景 2:本地知识库(笔记+搜索)

傻瓜方案(5分钟上手):

AnythingLLM Desktop 版 + Ollama
步骤:
1. 下载 AnythingLLM → 安装 → 打开
2. 设置选择"Ollama"作为 LLM 提供商
3. 新建工作区 → 上传 PDF/Word/Markdown
4. 右侧聊天栏 → 用中文提问文件内容

进阶方案(程序员友好):

Obsidian + Smart Connections 插件 + Ollama
+ LLM Wiki 插件(Andrej Karpathy 启发开发)
实现:Vault 内所有笔记可语义搜索+AI问答

团队/企业方案:

Open WebUI(Docker)+ Ollama
→ 多用户权限隔离
→ 按部门分库
→ 9 种向量数据库可选(默认 ChromaDB)

场景 3:私密文件助手(公司文件不上传云)

核心原则: 所有处理在本机完成,文件不离开内网

推荐方案:

需求 推荐工具 理由
个人文档问答 AnythingLLM + Ollama 一键安装,零数据外传
企业内部知识库 Open WebUI(内网部署) 权限管理,多用户
纯文档 Q&A PrivateGPT 极简,聚焦,54k Stars
高安全性合规 Onyx(前 Danswer) 企业级权限,API 集成

PrivateGPT 快速启动:

pip install private-gpt
private-gpt  # 自动下载模型,启动本地服务
# 访问 http://localhost:8001

场景 4:本地代码辅助(替代 GitHub Copilot)

傻瓜方案(安装即用):

VS Code + Twinny 插件 + Ollama
1. 安装 Ollama → ollama pull qwen2.5-coder:7b
2. VS Code 插件商店搜索"Twinny" → 安装
3. Twinny 设置中填写 Ollama 地址(默认 localhost:11434)
4. 代码自动补全立即生效
节省:$10/月 Copilot 订阅费

进阶方案(功能更全):

VS Code + Continue.dev + Ollama
- 支持代码补全 + 代码库问答 + AI 编辑
- 可配置不同任务使用不同模型(补全用小模型,问答用大模型)

命令行方案(效率最高):

pip install aider-chat
ollama pull qwen2.5-coder:14b
aider --model ollama/qwen2.5-coder:14b --file main.py
# 自动生成 Git 提交,代码历史干净

场景 5:本地图像生成(替代 Midjourney)

傻瓜方案(一键安装,Windows):

Fooocus(官方 Windows 便携包)
1. 从 GitHub 下载 Fooocus Windows Release
2. 解压 → 双击 run.bat
3. 自动下载 SDXL 模型(约 6GB)
4. 浏览器打开 → 直接写提示词生成图
无需 Python 环境配置

进阶方案(质量最高,2026 年推荐):

Forge WebUI + Juggernaut XL(写实)
或
ComfyUI + FLUX.1 Dev(最高质量,需 12GB VRAM)

对比 Midjourney:

维度 Midjourney 本地(FLUX.1+ComfyUI)
月费 $10-$120/月 免费(一次性硬件成本)
隐私 图片上传云 完全本地
生成速度 快(云端A100) 8GB显卡约 30-60秒/图
定制化 有限 极高(LoRA/ControlNet)
中文提示词 不佳 Kolors/通义万象支持

中国用户推荐模型下载渠道:
- LiblibAI(liblib.art):国内最大 Stable Diffusion 模型库
- ModelScope 魔搭:阿里旗下,包含国产模型
- Civitai 镜像站:需翻墙,但有最多模型


场景 6:离线翻译(商务出行无网络)

傻瓜方案(桌面):

Argos Translate(桌面 GUI 版)
1. 官网下载安装包
2. 打开 → 选择语言对(中英/中日/中韩等)
3. 点击下载对应语言模型(约 100-300MB)
4. 完全离线翻译,无需任何网络

手机方案:
- iOS:LibreTranslate 的 iOS App(LiTranslate)或 Apple 自带翻译(离线支持)
- Android:LibreTranslator(F-Droid 开源版)或 Google Translate 离线包
- 最佳质量:Ollama + Qwen3 7B(有本地电脑时通过手机远程调用)

质量最佳的离线翻译(有设备时):

使用 Ollama + Qwen3 7B 翻译
提示词:"请将以下内容翻译成英文,保持商务文体:[内容]"
质量远超 Argos/LibreTranslate 专用小模型

四、核心基础设施工具

这些是运行几乎所有本地 AI 软件的底层基础。


4.1 Ollama — 模型运行管理核心

属性 信息
开源状态 开源免费(MIT License)
GitHub Stars 110k+
平台 macOS / Windows / Linux
安装方式 官网一行命令或 GUI 安装包
API 兼容性 完全兼容 OpenAI API 格式

核心价值:
- 一条命令拉取任意模型:ollama pull qwen3:7b
- 自动管理模型版本和量化格式
- 本地 API 服务(默认 localhost:11434
- 所有需要 LLM 能力的工具都可对接 Ollama

常用命令:

ollama pull qwen3:7b          # 下载模型
ollama run qwen3:7b           # 命令行对话
ollama list                    # 查看已下载模型
ollama serve                   # 启动 API 服务(默认已启动)
ollama rm qwen3:7b            # 删除模型

中国国内下载方案:

渠道 地址 说明
Ollama 中文网 ollamacn.github.io 国内安装包镜像
ModelScope 镜像 modelscope.cn/models/Lixiang/ollama-release Linux/Win/Mac 包
环境变量加速 OLLAMA_MIRROR=https://ghproxy.cn/ 设置后自动走镜像
ModelScope 模型 OLLAMA_MODELS=模型路径 从魔搭下载 GGUF 手动导入

模型国内来源:

# 方法1:ModelScope 直接下载(推荐)
pip install modelscope
modelscope download --model=Qwen/Qwen3-7B-GGUF --local_dir ./models

# 方法2:hf-mirror 镜像站
HF_ENDPOINT=https://hf-mirror.com huggingface-cli download \
  Qwen/Qwen3-7B-GGUF --local-dir ./models

4.2 Open WebUI — 最强 Ollama 图形界面

属性 信息
开源状态 开源免费(MIT License)
GitHub Stars 132k+
下载次数 282M+(Docker Hub)
部署方式 Docker 一行命令 / pip 安装

核心功能(2026 版本):
- 多模型切换对话
- 内置 RAG(文档导入问答)
- 多用户权限管理
- 图像生成(对接 ComfyUI/A1111)
- 工具调用(Python 函数 / MCP 服务器)
- 企业 LDAP 认证
- 本地语音输入/输出

适合人群: 想要类似 ChatGPT Plus 完整体验,但全部本地运行的用户


4.3 LM Studio — 最易用的桌面客户端

属性 信息
开源状态 免费使用(闭源)
平台 Windows / macOS / Linux
特色 MCP 支持(2026 年独家);HuggingFace 模型直接浏览下载

2026 年新增功能:
- MCP(Model Context Protocol)支持:可连接文件系统、浏览器、数据库
- 成为目前唯一支持 MCP 的桌面 LLM 客户端
- 实质上成为可连接工具的 AI Agent 运行时

推荐用途: 普通用户的首选,研究者的模型测试平台,非技术人员的 ChatGPT 替代


4.4 llama.cpp — 最轻量的底层运行时

属性 信息
开源状态 开源免费(MIT License)
GitHub Stars 72k+
语言 C++(无额外依赖)

核心特点:
- 极致优化:支持 CPU / GPU / Apple Silicon 混合推理
- 零依赖部署:单一可执行文件
- 所有主流客户端(LM Studio/Jan/Ollama)的底层引擎
- 支持 GGUF 格式所有量化版本

使用场景: 树莓派、NAS、无 GPU 设备、边缘部署


4.5 Jan — 离线优先的跨平台客户端

属性 信息
开源状态 开源免费(AGPL-3.0)
GitHub Stars 28k+
平台 Windows / macOS / Linux
理念 离线优先,隐私为本

特点:
- 纯开源(LM Studio 为闭源免费)
- 支持本地 + 远程模型无缝切换
- 内置 Jan API 服务(OpenAI 兼容)
- 界面设计感强,接近 macOS 原生风格


五、中国用户注意事项

5.1 下载渠道汇总

资源类型 境外(需翻墙) 国内替代
模型下载 HuggingFace.co ModelScope 魔搭(modelscope.cn)
模型下载 Civitai(图像模型) LiblibAI(liblib.art)
模型下载 HuggingFace.co hf-mirror.com(镜像站)
Ollama 安装包 ollama.com ollamacn.github.io
软件安装包 GitHub Releases GitHub 镜像:ghproxy.cn
Docker 镜像 DockerHub 阿里云镜像加速器

5.2 国内镜像配置

HuggingFace 镜像(hf-mirror.com):

# 临时使用
HF_ENDPOINT=https://hf-mirror.com pip install huggingface_hub
HF_ENDPOINT=https://hf-mirror.com huggingface-cli download Qwen/Qwen3-7B-GGUF

# 永久设置(~/.bashrc 或 ~/.zshrc)
export HF_ENDPOINT=https://hf-mirror.com

Ollama 镜像:

# 设置环境变量(macOS/Linux)
export OLLAMA_MIRROR=https://ghproxy.cn/

# 或使用 ModelScope 镜像站拉取
# 详见:github.com/onllama/Onllama.ModelScope2Registry

pip 国内镜像:

pip install package-name -i https://pypi.tuna.tsinghua.edu.cn/simple

5.3 国产工具生态

工具 厂商 特色
MNN LLM 阿里 手机端最优,支持安卓/iOS 本地推理
PaddleOCR 百度 中文 OCR 天花板,轻量免费
FunASR 阿里达摩院 中文语音识别最优,含方言
CosyVoice 阿里达摩院 中文 TTS 最自然,3秒声音克隆
Kolors 快手 中文提示词图像生成(SD 生态)
LiblibAI 国产 最大中文 SD 模型社区
通义万象 阿里 中文图像生成,API 版本有免费额度

六、硬件-软件匹配建议

手机端

设备规格 推荐软件 可运行模型 使用体验
iPhone 15 Pro / 16 系列(8GB) PocketPal AI / LLM Farm Qwen3 1.5B / Gemma3 2B 流畅,约 8-12 tok/s
安卓旗舰 12GB(骁龙 8 Elite) PocketPal AI / MNN LLM Qwen3 3B / Llama3.2 3B 约 10 tok/s,日常可用
普通安卓 8GB PocketPal AI Qwen3 1.5B 勉强可用,响应较慢

手机端核心限制: RAM 而非 VRAM,量化格式推荐 Q4_K_M 平衡质量与速度


PC 端(按 GPU 显存分级)

集显 / 无独显(CPU 推理)

推荐软件 可运行模型 适合场景
LM Studio(CPU 模式) Qwen3 1.5B / 3B(Q4) 轻量对话,翻译,文案
Jan Phi-4-mini(3.8B Q4) 代码补全,问答
Whisper Desktop Whisper Base/Small 语音转录(不需 GPU)
Argos Translate 专用翻译模型 离线翻译

体验预期: 响应速度 1-3 tok/s,可用但不流畅,适合非实时场景


8GB 显存(RTX 3060 / RTX 4060 / M2 8GB)

类别 推荐工具 推荐模型 速度
聊天助手 LM Studio / Jan Qwen3 7B(Q4_K_M) ~20-30 tok/s
代码补全 Continue.dev + Ollama Qwen2.5-Coder 7B ~25 tok/s
图像生成 Forge / Fooocus SDXL / Juggernaut XL ~30-60秒/图
语音转录 MacWhisper / Buzz Whisper Large V3 Turbo 实时
知识库 AnythingLLM + Ollama nomic-embed-text RAG 可用

总结: 8GB 显存是本地 AI 的"入门线",日常 90% 场景均可覆盖


12GB 显存(RTX 3060 12G / RTX 4070 / M2 Pro 16GB)

类别 推荐工具 推荐模型 速度
聊天助手 Open WebUI + Ollama Qwen3 14B(Q4_K_M) ~15-20 tok/s
代码辅助 Aider / Continue.dev DeepSeek-Coder-V2 16B ~12 tok/s
图像生成 ComfyUI FLUX.1 Dev(Q8) ~45-90秒/图
多模态 LM Studio Qwen2.5-VL 7B 图文理解
文档 OCR Marker + Ollama Marker + Qwen3 7B 批量处理

总结: 12GB 显存解锁 14B 级模型,是"日常使用甜蜜点"


24GB 显存(RTX 3090 / RTX 4090 / M2 Max 32GB)

类别 推荐工具 推荐模型 速度
高质量对话 Open WebUI Qwen3 32B(Q4_K_M) ~10-15 tok/s
专业代码 Aider + Ollama Qwen2.5-Coder 32B ~8 tok/s
图像生成 ComfyUI FLUX.1 Dev(FP16 全精度) ~20-30秒/图
TTS 克隆 CosyVoice 3.0 CosyVoice 3.0 3秒克隆声音
视频生成 ComfyUI + CogVideoX CogVideoX-5B 分钟级生成
企业知识库 Open WebUI(多用户) Qwen3 32B + RAG 团队共享

总结: 24GB 显存是目前消费级"全能战士",可流畅运行 32B 级模型,覆盖绝大多数生产级场景


七、快速选择指南

我是谁,我该用什么?

你是...
├── 完全不懂技术的普通用户
│   └── → LM Studio(桌面)/ PocketPal AI(手机)
│
├── 想用 AI 写文案/做翻译的运营人员  
│   └── → LM Studio + Qwen3 7B(全程 GUI,无命令行)
│
├── 程序员,想替代 Copilot
│   └── → VS Code + Continue.dev + Ollama(免费完整替代)
│
├── 设计师,想替代 Midjourney
│   └── 入门:Fooocus(傻瓜一键)
│   └── 专业:ComfyUI + FLUX.1(质量最高)
│
├── 做视频,需要字幕/转录
│   └── → Buzz(跨平台免费)/ MacWhisper(macOS)
│
├── 研究者,需要读文献/建知识库
│   └── → AnythingLLM(傻瓜 RAG)+ Zotero+AI(学术)
│
├── 有隐私要求,公司文件不敢上云
│   └── → PrivateGPT / AnythingLLM(全本地,零外传)
│
└── 极客/开发者,想自建完整系统
    └── → Ollama + Open WebUI + LangChain(全栈可控)

报告持续更新 · 下次更新:2026-05-02

数据来源:GitHub、官网、HuggingFace、Reddit、DEV Community(2025-2026)

反馈与补充:Aura AI · Mycelium Protocol