【Transformer系列(5)】vision transformer(ViT)带来的思考?

发布于:2024-05-06 ⋅ 阅读:(31) ⋅ 点赞:(0)

一、ViT的意义

Vision Transformer(ViT)是一种基于Transformer架构的图像分类模型,它通过将图像划分为一系列的图像块(patches),并将这些块转换为向量序列,然后通过Transformer的自注意力机制对这些序列进行处理,最后通过全连接层进行分类。

与传统的卷积神经网络(CNN)相比,ViT的主要意义在于:
(1)消除了传统卷积神经网络对于图像尺寸的限制。传统的CNN需要固定大小的输入图像,而ViT可以处理任意尺寸的图像,将其划分为块并进行处理,大大提高了模型的灵活性。
(2)提供了一种新的处理序列数据的思路。Transformer最初是针对自然语言处理任务设计的,而ViT将其成功应用于图像分类任务,验证了Transformer在处理序列数据方面的广泛适用性。
(3)可以处理长程依赖关系。由于自注意力机制的存在,ViT可以捕捉图像中任意两个位置之间的关系,从而更好地处理长程依赖关系的问题,如目标检测、图像分割等任务。

因此,Vision Transformer的意义在于为图像分类任务带来了一种全新的模型架构,打破了传统的卷积神经网络对图像尺寸的限制,并且展示了Transformer在图像处理领域的潜力。它为研究人员提供了一种全新的思路,可以进一步探索Transformer模型在计算机视觉领域的应用。

二、使用Position Embedding实现了图像和文本的向量尺度统一

由于多头自注意力是针对NLP提出的,它的输入尺度为[batch size, num token , dim_token] ,而CV中图像输入尺度通常为[batch_size, num_channel, height, width]ViT通过Patch Embedding将其尺度转换至期望的形式。
说白了,就是CV中空间(height*width)对应NLP中的num_tokenCV中的通道num_channel对应NLP中的dim_token
在这里插入图片描述

如上图所示,假设一张图像的尺寸为[ 3 , 224 , 224 ],ViT会将其均分为多个Patch(上图是3 ∗ 3 = 9个,ViT结构图中是14 ∗ 14 = 196个),于是每个Patch的尺度为[ 3 , 16 , 16 ](16 = 224 ÷ 14)。对于每个PatchViT使用一层2D卷积进行特征提取可以得到尺度为[ 768 , 14 , 14 ]的特征(卷积核大小和步长均与Patch一致,输出通道数为768)。之后将[ 768 , 14 , 14 ]的特征转置为[ 14 , 14 , 768 ]的并将其展平即可得到[ 196 , 768 ]的特征。
此时转换完成,其中:
(1)196即为token的数量,对应文本输入尺度[batch size, num token , dim_token] 中的num_token
(2)768token的向量长度,对应文本输入尺度[batch size, num token , dim_token] 中的dim_token
如下图所示。
在这里插入图片描述

由于ViT处理的是分类任务,所以它参考BERT特地拼接上了一个大小为[ 1 , 768 ]Class token,于是现在token的大小变成[ 197 , 768 ]ViTClass token是一个初始化为0的可学习参数向量。通常Class token会被单独拿出来作为ViT提取出来的图像特征用于下游任务。

另外,ViT保留了Transformer中的位置编码(Position Embedding),它也是初始化为0的可学习参数,不过不是拼接而是加入,所以其大小为[ 197 , 768 ],与当前token的大小一致。

此时,所以token的准备完成,一个批次的图像转换为token后尺度是[batch_size, num_token, dim_token] (num_token=197, dim_token=768)