[智能算法]可微的神经网络搜索算法-FBNet

发布于:2025-09-11 ⋅ 阅读:(14) ⋅ 点赞:(0)

一、概述

        相较于基于强化学习的NAS,可微NAS能直接使用梯度下降更新模型结构超参数,其中较为有名的算法就是DARTS,其具体做法如下。

        首先,用户需要定义一些候选模块,这些模块内部结构可以互不相同(如设置不同种类和数量的卷积,使用不同种类的连接结构等);其次,用户也需要指定神经网络的层数,每一层由候选模块的其中之一构成。

        由于搜索空间=Blocks^{layers}(其中Blokcs为候选模块种类,layers为预先指定的神经网络层数)巨大,为了从庞大的搜索空间中找到合适的结构,需要引入superNet

二、SuperNet

        以下内容均基于论文:FBNethttps://openaccess.thecvf.com/content_CVPR_2019/papers/Wu_FBNet_Hardware-Aware_Efficient_ConvNet_Design_via_Differentiable_Neural_Architecture_Search_CVPR_2019_paper.pdf

        2.1模型结构

        这里以SuperNet中的某一层为例,设置候选模块一共9种,这层superNet由9种不同的模块并联而成。输入向量x在候选模块处理后分别得到9个向量f,这个处理过程记作:y=f_i(x,w_i),其中w_i为模块中的权重。将这些向量f进行加权求和,这些权重记作\alpha,所有\alpha之和为1(由softmax计算得到),权重\alpha就是模型要学习的神经网络结构超参数

        通过堆叠上述模块,组成一个完整的superNet,经过训练,每一层最终会保留一个模块。

        2.2训练

        将superNet的候选模块一共9个,记作j=1,...9;设superNet一共20层,记作l=1,...20;得第l层中第j个模块的参数记作w_j^{(l)}\theta_j^{(l)},故W=\{w_j^{(l)}\}_{j,l}\Theta=\{\theta_j^{(l)}\}_{j,l},这两个即为需要训练并学习的参数。superNet做出的预测记作p(x_i;W,\Theta)

        交叉熵损失函数可以写作min_{W,\Theta}\frac{1}{n}\sum_{i=1}^nLoss(y_i,p(x_i;W,\Theta)),在这个损失函数中,由于p是关于\Theta的函数,且两者可微,故损失函数Loss能通过p传递给\Theta,所以可以直接使用反向梯度传播更新模型。

        基于学习到的\Theta,我们可以计算出superNet中没一层中每个模块的权重\alpha_j^{(l)}=\frac{exp(\theta_j^{(l)})}{\sum_{k=1}^9exp(\theta_k^{(l)})},对于每层而言,选取其中权重最大的模块作为该层的结构,这些模块串联即可得到整个模型的结构,如下图所示。

三、使用额外的性能指标优化superNet

        以应用于移动设备的轻量化神经网络举例,这类神经网络由于需要考虑移动设备的算力限制,往往需要延迟(latency,推理时间)越小越好。

        可以事先测量每个候选模块的平均延迟,计算这一层中每个模块的延迟加权平均\sum_{j=1}^9=t_j \alpha_j,如下图所示。

        将20层网络中的延迟求和,得到:Lat(\Theta)=\sum_{l=1}^20\sum_{j=1}^9t_j^{(l)}\alpha_j^{(l)},其中\alpha_j^{(l)}的定义在2.2节中已经给出,可以进一步记作Lat(\Theta)=\sum_{l=1}^20\sum_{j=1}^9t_j^{(l)}\frac{exp(\theta_j^{(l)})}{\sum_{k=1}^9exp(\theta_k^{(l)})},其中的t为计算得到的常数。

        损失函数为:min_{W,\Theta}\frac{1}{n}\sum_{i=1}^nLoss(y_i,p(x_i;W,\Theta))+\lambda Lat(\Theta),其中\lambda可以决定牺牲多少准确率来换取计算速度。

        另外也可以使用min_{W,\Theta}\frac{1}{n}\sum_{i=1}^nLoss(y_i,p(x_i;W,\Theta))+log^{\lambda}[Lat(\Theta)],作为损失函数,效果和上式相同。


网站公告

今日签到

点亮在社区的每一天
去签到