《前后端面试题
》专栏集合了前后端各个知识模块的面试题,包括html,javascript,css,vue,react,java,Openlayers,leaflet,cesium,mapboxGL,threejs,nodejs,mangoDB,SQL,Linux… 。
文章目录
- 一、本文面试题目录
-
-
- 61. 什么是“贪婪解码(Greedy Decoding)”?它的优缺点是什么?
- 62. 束搜索(Beam Search)的原理是什么?如何选择束宽(Beam Size)?
- 63. 采样(Sampling)在生成任务中的作用是什么?温度参数(Temperature)如何影响采样结果?
- 64. 什么是“top-k采样”和“nucleus sampling(top-p采样)”?它们如何解决采样的随机性问题?
- 65. 解码过程中,如何避免生成重复的内容?
- 66. Transformer在生成长序列时可能遇到哪些问题?如何缓解?
- 67. 对比解码(Contrastive Decoding)的思想是什么?它能提升生成质量吗?
- 68. 什么是“长度惩罚(Length Penalty)”?在束搜索中如何使用?
- 69. 生成任务中,如何评估Transformer的输出质量(如BLEU、ROUGE指标)?
- 70. 简述Transformer在实时生成任务(如对话系统)中的延迟问题及优化方法。
-
- 二、120道Transformer面试题目录列表
一、本文面试题目录
61. 什么是“贪婪解码(Greedy Decoding)”?它的优缺点是什么?
原理说明
贪婪解码是Transformer生成序列时最直接的解码策略,其核心逻辑是:在每一步生成时,从模型预测的所有可能token中选择概率最高的那个作为当前输出,然后将该token加入已生成序列,再基于新序列预测下一个token,重复此过程直到生成结束符(如<END>
)或达到最大长度。
- 优点