8 月初,OpenAI 出人意料地发布了 gpt-oss-120b 和 gpt-oss-20b 两款开放权重的轻量级语言模型,性能强劲、许可宽松,且可直接在本地运行。无论你是开发者、AI 爱好者,还是想在自己电脑上跑大模型,这次都可以“零门槛”上手。
一、模型介绍
1. gpt-oss-120b
- 定位:生产级、高推理场景
- 参数规模:117B(活动参数 5.1B)
- 硬件需求:单张 H100 GPU
2. gpt-oss-20b
- 定位:本地低延迟、特殊场景
- 参数规模:21B(活动参数 3.6B)
- 硬件需求:消费级显卡 / 16GB 内存可跑
两款模型都基于 Apache 2.0 协议,商业可用、可微调、可自由部署。
二、核心亮点
- 完全开源:Apache 2.0 许可证,无版权或专利风险
- 可调推理力度:低 / 中 / 高自由切换,兼顾速度与效果
- 完整思路链(CoT):可追溯推理过程,方便调试
- Agentic 能力:原生支持函数调用、网页浏览、Python 执行、结构化输出
- 原生 MXFP4 量化:节省显存,提升部署效率
三、安装前准备
- Python 3.12(官网下载)
- macOS 用户需安装 Xcode CLI:
xcode-select --install
- Linux 用户需准备 CUDA 环境
- Windows 用户建议用 Ollama 方案
四、三种本地部署方式
方法 1:使用 Ollama(推荐简单快速)
适合 Windows / macOS / Linux 用户
- 下载 Ollama 官方版 并安装
- 终端执行以下命令:
# gpt-oss-20b
ollama pull gpt-oss:20b
ollama run gpt-oss:20b
# gpt-oss-120b
ollama pull gpt-oss:120b
ollama run gpt-oss:120b
方法 2:使用 LM Studio
更适合需要图形界面和多模型管理的用户
# gpt-oss-20b
lms get openai/gpt-oss-20b
# gpt-oss-120b
lms get openai/gpt-oss-120b
方法 3:Hugging Face CLI 直接下载原始模型
适合需要完整权重进行二次开发的用户
# gpt-oss-120b
huggingface-cli download openai/gpt-oss-120b --include "original/*" --local-dir gpt-oss-120b/
# gpt-oss-20b
huggingface-cli download openai/gpt-oss-20b --include "original/*" --local-dir gpt-oss-20b/
五、使用建议
- 低配置电脑可优先跑 gpt-oss-20b,速度快、占用低
- 高性能显卡或云 GPU 可选 gpt-oss-120b,推理更强
- 想做智能 Agent,可利用模型的浏览器、函数调用、Python 执行能力
六、总结
OpenAI 这次开源的 gpt-OSS 系列,不仅是技术上的开放,也是生态战略的转折点。借助 Ollama、LM Studio 或 Hugging Face,你可以在几分钟内把它跑在自己的电脑上,实现真正的“离线 AI 智能体”。