名称 | 类型 | 公开评审 | 领域重点 | 是否可查审稿 |
---|---|---|---|---|
ICML | 顶会(A 类) | 否 | 机器学习核心理论 | 否(PMLR) |
NeurIPS | 顶会(A 类) | 部分 | 深度学习与交叉领域 | 否(但论文公开) |
ICLR | 顶会(A 类) | 是 | 表示学习、深度生成模型 | OpenReview |
arXiv | 预印本平台 | 否 | 所有研究领域 | 否 |
1. ICML – International Conference on Machine Learning
- 全称:International Conference on Machine Learning
- 类型:国际顶级会议(A 类)
- 主办方:PMLR(Proceedings of Machine Learning Research)
- 领域:机器学习理论与方法、优化算法、图模型、强化学习、生成模型等
- 特点:投稿竞争极其激烈,接收率通常在 20%-25% 左右。强调方法创新和理论严谨性,是机器学习领域的“核心会议”。
代表论文:
- Deep Unsupervised Learning using Nonequilibrium Thermodynamics
- Adam: A Method for Stochastic Optimization
- Variational Inference with Normalizing Flows
🔗 官网:https://icml.cc
2. NeurIPS – Conference on Neural Information Processing Systems
- 原名:NIPS(Neural Information Processing Systems)
- 类型:AI / ML / 神经科学顶级会议
- 主办方:NeurIPS Foundation
- 领域:深度学习、生成模型(如 diffusion models)、神经网络结构、AI 应用等
- 特点:极强的跨领域融合色彩,汇集了计算机科学、神经科学、统计学等专家。接收率约 20%。
代表论文:
- Denoising Diffusion Probabilistic Models
- Attention Is All You Need(Transformer 原始论文)
- AlphaFold 论文前身的理论研究也曾在此会议发表
🔗 官网:https://neurips.cc
🔗 论文库:https://papers.neurips.cc
3. ICLR – International Conference on Learning Representations
- 全称:International Conference on Learning Representations
- 类型:深度学习核心会议
- 评审平台:使用 OpenReview(同行评审全公开)
- 领域:representation learning(特征表示学习)、transformers、diffusion models、graph learning 等
- 特点:倡导开放同行评审(OpenReview),提倡 reproducibility 和 community feedback。
代表论文:
- Score-Based Generative Modeling through SDEs
- DDIM: Denoising Diffusion Implicit Models
- SimCLR, BYOL, Vision Transformers 等开创性方法
🔗 官网:https://iclr.cc
🔗 OpenReview 搜索入口:https://openreview.net
4. arXiv – 预印本论文平台
- 不是会议或期刊,而是一个开放获取的论文预印本平台
- 作者可在论文提交评审前上传草稿版本(广泛用于 AI 和物理学)
- 非正式出版物,但很多开创性论文都是先发布在 arXiv 上
- arXiv 上的论文不会经过审稿,但可快速获取研究动态和引用资源
🔗 入口:https://arxiv.org