目录
时隔六年!OpenAI 8 月 5 日「开放权重」回归,GPT-OSS 双模型能否重塑开源格局?
关键词:GPT-OSS、开放权重、本地推理、Apache 2.0、MoE
一、突发:8 月 5 日,OpenAI 开源“双黄蛋”
2025 年 8 月 5 日(美东时间),OpenAI 在官方博客和 Hugging Face 同步上架两款开放权重语言模型——
- gpt-oss-120b:总参 117 B,激活 5.1 B/token,单张 80 GB GPU 即可推理,性能对标 o4-mini;
- gpt-oss-20b:总参 21 B,激活 3.6 B/token,16 GB 笔记本本地跑,性能对标 o3-mini。
这是自 2019 年 GPT-2 以来,OpenAI 首次向公众开放大模型权重。CEO Sam Altman 在 X 上直言:“这是目前全球最佳、最实用的开放权重推理模型。”
二、为什么说它是「开放权重」而非「完全开源」?
维度 | 开放权重(Open-Weight) | 完全开源(Open-Source) |
---|---|---|
模型权重 | ✅ 公开下载 | ✅ 公开下载 |
训练数据 | ❌ 未公开 | ✅ 公开 |
训练代码/流程 | ❌ 未公开 | ✅ 公开 |
许可证 | Apache 2.0,商用免费 | 视具体许可证而定 |
因此,GPT-OSS 系列可以免费商用、自由微调,但无法复现训练过程;这与 Llama、Qwen 等主流社区玩法保持一致。
三、技术亮点速读
MoE+稀疏注意力
采用**专家混合(MoE)**架构 + 交替密集/带状稀疏注意力,128 k 长上下文,推理时只激活少量参数,降低显存占用。消费级友好
- 16 GB 内存笔记本即可运行 20 B 版本;
- M 系列 Mac、RTX 4090 也能轻松启动。
任务表现
- gpt-oss-120b:在 Codeforces、MMLU、AIME2025、HealthBench 等基准上超越 o4-mini;
- gpt-oss-20b:同基准超越 o3-mini。
安全护栏
OpenAI 进行了为期数月的红队演练与有害输出过滤,防止权重外流后被滥用。
四、生态&商业影响
云厂商抢位:
亚马逊 Bedrock / SageMaker 首次上线 OpenAI 模型;微软也宣布将在 Windows 提供 ONNX 优化版,Visual Studio Code 一键调用。开发者狂欢:
Apache 2.0 许可证意味着无需授权费即可嵌入商业产品,嵌入式、边缘 AI、私有化部署门槛骤降。竞对回应:
就在 GPT-OSS 发布次日,马斯克宣布 xAI 将于下周开源 Grok-2;Meta 则传出消息将 Llama-4 转为“谨慎开源”,开源 vs 闭源进入拉锯战。
五、快速上手:3 步本地跑起 gpt-oss-20b
# 1. 拉取权重
git lfs install
git clone https://huggingface.co/openai/gpt-oss-20b
# 2. 安装依赖
pip install transformers==4.44.0
pip install torch --index-url https://download.pytorch.org/whl/cu121
# 3. 启动推理
python -m transformers.cli run \
--model gpt-oss-20b \
--prompt "用 Python 写一个快速排序"
官方已放出 VS Code 插件,支持一键下载、量化、调试,Mac/Win/Linux 通杀。
六、写在最后
从 GPT-2 到 GPT-OSS,OpenAI 用了六年时间完成一次“开源回归”。当巨头们把最尖端的能力锁进 API 时,开放权重模型的出现让**“AI 民主化”**不再是一句口号。
下一步,社区能否围绕 GPT-OSS 长出新的爆款应用?微调后的 20 B 模型又会不会在细分领域“以小搏大”?欢迎留言聊聊你的脑洞!