【前沿技术动态】【AI总结】时隔六年!OpenAI 8 月 5 日「开放权重」回归,GPT-OSS 双模型能否重塑开源格局?

发布于:2025-08-12 ⋅ 阅读:(19) ⋅ 点赞:(0)

时隔六年!OpenAI 8 月 5 日「开放权重」回归,GPT-OSS 双模型能否重塑开源格局?

关键词:GPT-OSS、开放权重、本地推理、Apache 2.0、MoE


一、突发:8 月 5 日,OpenAI 开源“双黄蛋”

2025 年 8 月 5 日(美东时间),OpenAI 在官方博客和 Hugging Face 同步上架两款开放权重语言模型——

  • gpt-oss-120b:总参 117 B,激活 5.1 B/token,单张 80 GB GPU 即可推理,性能对标 o4-mini;
  • gpt-oss-20b:总参 21 B,激活 3.6 B/token,16 GB 笔记本本地跑,性能对标 o3-mini。

这是自 2019 年 GPT-2 以来,OpenAI 首次向公众开放大模型权重。CEO Sam Altman 在 X 上直言:“这是目前全球最佳、最实用的开放权重推理模型。”


二、为什么说它是「开放权重」而非「完全开源」?

维度 开放权重(Open-Weight) 完全开源(Open-Source)
模型权重 ✅ 公开下载 ✅ 公开下载
训练数据 ❌ 未公开 ✅ 公开
训练代码/流程 ❌ 未公开 ✅ 公开
许可证 Apache 2.0,商用免费 视具体许可证而定

因此,GPT-OSS 系列可以免费商用、自由微调,但无法复现训练过程;这与 Llama、Qwen 等主流社区玩法保持一致。


三、技术亮点速读

  1. MoE+稀疏注意力
    采用**专家混合(MoE)**架构 + 交替密集/带状稀疏注意力,128 k 长上下文,推理时只激活少量参数,降低显存占用。

  2. 消费级友好

    • 16 GB 内存笔记本即可运行 20 B 版本;
    • M 系列 Mac、RTX 4090 也能轻松启动。
  3. 任务表现

    • gpt-oss-120b:在 Codeforces、MMLU、AIME2025、HealthBench 等基准上超越 o4-mini
    • gpt-oss-20b:同基准超越 o3-mini
  4. 安全护栏
    OpenAI 进行了为期数月的红队演练与有害输出过滤,防止权重外流后被滥用。


四、生态&商业影响

  • 云厂商抢位
    亚马逊 Bedrock / SageMaker 首次上线 OpenAI 模型;微软也宣布将在 Windows 提供 ONNX 优化版,Visual Studio Code 一键调用。

  • 开发者狂欢
    Apache 2.0 许可证意味着无需授权费即可嵌入商业产品,嵌入式、边缘 AI、私有化部署门槛骤降。

  • 竞对回应
    就在 GPT-OSS 发布次日,马斯克宣布 xAI 将于下周开源 Grok-2;Meta 则传出消息将 Llama-4 转为“谨慎开源”,开源 vs 闭源进入拉锯战。


五、快速上手:3 步本地跑起 gpt-oss-20b

# 1. 拉取权重
git lfs install
git clone https://huggingface.co/openai/gpt-oss-20b

# 2. 安装依赖
pip install transformers==4.44.0
pip install torch --index-url https://download.pytorch.org/whl/cu121

# 3. 启动推理
python -m transformers.cli run \
  --model gpt-oss-20b \
  --prompt "用 Python 写一个快速排序"

官方已放出 VS Code 插件,支持一键下载、量化、调试,Mac/Win/Linux 通杀。


六、写在最后

从 GPT-2 到 GPT-OSS,OpenAI 用了六年时间完成一次“开源回归”。当巨头们把最尖端的能力锁进 API 时,开放权重模型的出现让**“AI 民主化”**不再是一句口号。
下一步,社区能否围绕 GPT-OSS 长出新的爆款应用?微调后的 20 B 模型又会不会在细分领域“以小搏大”?欢迎留言聊聊你的脑洞!



网站公告

今日签到

点亮在社区的每一天
去签到