可锐资源网

技术资源分享平台,提供编程学习、网站建设、脚本开发教程

OpenAI 重磅开源!本地安装 gpt-OSS (Windows / macOS / Linux 全支持)

8 月初,OpenAI 出人意料地发布了 gpt-oss-120bgpt-oss-20b 两款开放权重的轻量级语言模型,性能强劲、许可宽松,且可直接在本地运行。无论你是开发者、AI 爱好者,还是想在自己电脑上跑大模型,这次都可以“零门槛”上手。



一、模型介绍

1. gpt-oss-120b

  • 定位:生产级、高推理场景
  • 参数规模:117B(活动参数 5.1B)
  • 硬件需求:单张 H100 GPU

2. gpt-oss-20b

  • 定位:本地低延迟、特殊场景
  • 参数规模:21B(活动参数 3.6B)
  • 硬件需求:消费级显卡 / 16GB 内存可跑

两款模型都基于 Apache 2.0 协议,商业可用、可微调、可自由部署。


二、核心亮点

  • 完全开源:Apache 2.0 许可证,无版权或专利风险
  • 可调推理力度:低 / 中 / 高自由切换,兼顾速度与效果
  • 完整思路链(CoT):可追溯推理过程,方便调试
  • Agentic 能力:原生支持函数调用、网页浏览、Python 执行、结构化输出
  • 原生 MXFP4 量化:节省显存,提升部署效率

三、安装前准备

  • Python 3.12(官网下载)
  • macOS 用户需安装 Xcode CLI:
xcode-select --install
  • Linux 用户需准备 CUDA 环境
  • Windows 用户建议用 Ollama 方案

四、三种本地部署方式

方法 1:使用 Ollama(推荐简单快速)

适合 Windows / macOS / Linux 用户

  1. 下载 Ollama 官方版 并安装
  2. 终端执行以下命令:
# gpt-oss-20b
ollama pull gpt-oss:20b
ollama run gpt-oss:20b

# gpt-oss-120b
ollama pull gpt-oss:120b
ollama run gpt-oss:120b

方法 2:使用 LM Studio

更适合需要图形界面和多模型管理的用户

# gpt-oss-20b
lms get openai/gpt-oss-20b

# gpt-oss-120b
lms get openai/gpt-oss-120b

方法 3:Hugging Face CLI 直接下载原始模型

适合需要完整权重进行二次开发的用户

# gpt-oss-120b
huggingface-cli download openai/gpt-oss-120b --include "original/*" --local-dir gpt-oss-120b/

# gpt-oss-20b
huggingface-cli download openai/gpt-oss-20b --include "original/*" --local-dir gpt-oss-20b/

五、使用建议

  • 低配置电脑可优先跑 gpt-oss-20b,速度快、占用低
  • 高性能显卡或云 GPU 可选 gpt-oss-120b,推理更强
  • 想做智能 Agent,可利用模型的浏览器、函数调用、Python 执行能力

六、总结

OpenAI 这次开源的 gpt-OSS 系列,不仅是技术上的开放,也是生态战略的转折点。借助 Ollama、LM Studio 或 Hugging Face,你可以在几分钟内把它跑在自己的电脑上,实现真正的“离线 AI 智能体”。


控制面板
您好,欢迎到访网站!
  查看权限
网站分类
最新留言