【NLP高频面题 - Transformer篇】Transformer的位置编码是如何计算的?

发布于:2025-02-10 ⋅ 阅读:(53) ⋅ 点赞:(0)

【NLP高频面题 - Transformer篇】Transformer的位置编码是如何计算的?

重要性:★★★


NLP Github 项目:


Transformer 位置编码矩阵究竟是如何计算的呢?如下所示,Transformer 论文“Attention Is All You Need”的作者使用了正弦函数来计算位置编码:
在这里插入图片描述

  • p o s pos pos 表示该词在句子中的位置
  • i i i 表示在输入矩阵中的位置
  • d m o d e l d_{model} dmodel 表示嵌入维度

计算实例:对于给定的句子 I am good 为例,嵌入维度为4,计算位置编码。

  1. 根据公式计算位置编码矩阵:
    在这里插入图片描述

  2. 计算位置编码矩阵(简化版):
    在这里插入图片描述

  3. 继续计算位置编码矩阵:
    在这里插入图片描述

  4. 最终的位置编码矩阵 P P P 如图所示:
    在这里插入图片描述


NLP 大模型高频面题汇总

NLP基础面
BERT 模型面
LLMs 微调面

网站公告

今日签到

点亮在社区的每一天
去签到