当前位置: 首页 > news >正文

排名优化网站/网络营销出来可以干什么工作

排名优化网站,网络营销出来可以干什么工作,wordpress更新服务器,seo网站推广的目的包括哪个方面前面介绍了强化学习方法,但屠龙刀毕竟不是人人有。梯度可微算法在保证精度可接受的前提下大幅缩短了训练周期,开启了网络结构搜索的平民化浪潮。 MobileNetV2FBNetShiftNetGumbel-SoftmaxSNASDARTSProxylessNASP-DARTSPC-DARTSDenseNASDARTS DARTS 由 C…

前面介绍了强化学习方法,但屠龙刀毕竟不是人人有。梯度可微算法在保证精度可接受的前提下大幅缩短了训练周期,开启了网络结构搜索的平民化浪潮。

MobileNetV2
FBNet
ShiftNet
Gumbel-Softmax
SNAS
DARTS
ProxylessNAS
P-DARTS
PC-DARTS
DenseNAS

DARTS

DARTS 由 CMU 和 DeepMind 提出,最终发表在 ICLR 2019上。DARTS 在有限资源条件下将模型精度提升到可接受的程度,而且开放代码(quark0/darts)。可谓 NAS 领域内的一大贡献。美中不足的是代码仅在单 GPU 下搜索,以至于后续的 chenxin061/pdarts 和 yuhuixu1993/PC-DARTS 亦维持此设置,成为扩展的阻碍。

DARTS 将搜索空间放宽为连续的,以便可以通过梯度下降来优化体系结构的验证集性能。在所有混合操作中联合学习架构 α\alphaα 和权重 www。这意味着一个双层优化问题,其中 α\alphaα 作为上层变量,www 作为下层变量:
min⁡αLval(w∗(α),α)s.t.w∗(α)=argminwLtrain(w,α)\begin{aligned} \min_\alpha \quad & \mathcal{L}_{val}(w^*(\alpha), \alpha) \\ \text{s.t.} \quad &w^*(\alpha) = \mathrm{argmin}_w \enspace \mathcal{L}_{train}(w, \alpha) \end{aligned} αmins.t.Lval(w(α),α)w(α)=argminwLtrain(w,α)
DARTS 求结构梯度的近似解:

∇αLval(w∗(α),α)≈∇αLval(w−ξ∇wLtrain(w,α),α)\begin{aligned} &\nabla_\alpha \mathcal{L}_{val}(w^*(\alpha), \alpha) \\ \approx &\nabla_\alpha \mathcal{L}_{val}(w - \xi \nabla_{w} \mathcal{L}_{train}(w, \alpha), \alpha) \end{aligned} αLval(w(α),α)αLval(wξwLtrain(w,α),α)

其中 www 表示算法维护的当前权重,ξ\xiξ 是内部优化步骤的学习率。思路是通过仅使用单个训练步骤来调整 www 来近似 w∗(α)w^*(\alpha)w(α),而不是训练至收敛来完全求解内部优化。

从形式上讲,DARTS 将搜索网络分解为若干(LLL)个的单元(cell)。每个单元组织为具有 NNN 个节点的有向无环图(DAG),其中每个节点定义一个网络层。预定义操作空间 O\mathcal{O}O,其中每个元素 o&NegativeThinSpace;(⋅)o\!\left(\cdot\right)o() 是在网络层执行的固定操作(例如,identity connection, and 3×33\times33×3 convolution)。在单元内,目标是从 O\mathcal{O}O 中选择一个操作来连接每对节点。设一对节点为 (i,j)\left(i,j\right)(i,j),其中 0⩽i&lt;j⩽N−1{0}\leqslant{i}&lt;{j}\leqslant{N-1}0i<jN1,DARTS 的核心思想是将从 iii 传播到 jjj 的信息表示为 ∣O∣\left|\mathcal{O}\right|O 操作的加权和,即 fi,j&NegativeThinSpace;(xi)=∑o∈Oexp⁡{αi,jo}∑o′∈Oexp⁡{αi,jo′}⋅o&NegativeThinSpace;(xi){f_{i,j}\!\left(\mathbf{x}_i\right)}={{\sum_{o\in\mathcal{O}}}\frac{\exp\left\{\alpha_{i,j}^o\right\}}{{\sum_{o&#x27;\in\mathcal{O}}}\exp\left\{\alpha_{i,j}^{o&#x27;}\right\}}\cdot o\!\left(\mathbf{x}_i\right)}fi,j(xi)=oOoOexp{αi,jo}exp{αi,jo}o(xi),其中 xi\mathbf{x}_ixi 是第 iii 个节点的输出,αi,jo\alpha_{i,j}^oαi,jo 是加权操作的超参数 o&NegativeThinSpace;(xi)o\!\left(\mathbf{x}_i\right)o(xi)。节点的输出是所有输入流的总和,即 xj=∑i&lt;jfi,j&NegativeThinSpace;(xi){\mathbf{x}_j}={{\sum_{i&lt;j}}f_{i,j}\!\left(\mathbf{x}_i\right)}xj=i<jfi,j(xi),整个单元格的输出是通过连接节点 x2\mathbf{x}_2x2xN−1\mathbf{x}_{N-1}xN1 的输出而形成的,即 concat&NegativeThinSpace;(x2,x3,…,xN−1)\mathrm{concat}\!\left(\mathbf{x}_2,\mathbf{x}_3,\ldots,\mathbf{x}_{N-1}\right)concat(x2,x3,,xN1) 。请注意,前两个节点 x0\mathbf{x}_0x0x1\mathbf{x}_1x1 是单元的输入节点,在架构搜索期间是固定的。

搜索过程完成后,在每个边 (i,j)\left(i,j\right)(i,j) 上,保留具有最大 αi,jo\alpha_{i,j}^oαi,jo 值的操作 ooo,并且每个节点 jjj 连接到具有最大 αi,jo\alpha_{i,j}^oαi,jo 的两个先例(i&lt;j{i}&lt;{j}i<j)。

实验中, 在 CIFAR-10 上搜索基础单元,由组件构建网络从头训练得到 ImageNet 上的结果。

DARTS 在 O\mathcal{O}O 中包括以下操作:

  • 3 × 3 separable convolution
  • 5 × 5 separable convolution
  • 3 × 3 dilated separable convolution
  • 5 × 5 dilated separable convolution
  • 3 × 3 max pooling
  • 3 × 3 average pooling
  • identity
  • zerozerozero

所有操作步长为1(如果适用),填充卷积特征图以保持其空间分辨率。使用 ReLU-Conv-BN 顺序进行卷积运算,并且每个可分离卷积总是应用两次([NASNet] [AmoebaNet][PNAS])。

卷积单元由 N=7N=7N=7 个节点组成,其中定义输出节点为所有中间节点(不包括输入节点)的深度级联。其余的设置遵循 [NASNet] [AmoebaNet][PNAS],然后通过将多个单元堆叠在一起形成网络。单元 kkk 的第一和第二节点分别设置为等于单元 k−2k-2k2 和单元 k−1k-1k1 的输出,并且根据需要插入 1×11 \times 11×1 卷积。 位于网络总深度的1/3和2/3处的单元是约简单元,其中与输入节点相邻的所有操作步长为2。因此,体系结构编码是 (αnormal,αreduce)(\alpha_{normal}, \alpha_{reduce})(αnormal,αreduce),其中 αnormal\alpha_{normal}αnormal 由所有正常单元共享,αreduce\alpha_{reduce}αreduce 由所有约简单元共享。
visualize-normal-cropvisualize-reduction-crop
为了更好地理解深度对架构搜索的影响,DARTS 通过将堆栈中的单元数量从8增加到20来对 CIFAR-10进行架构搜索。由于单个 GPU 显存的限制,初始通道数量从16减少到6。测试误差,略低于较浅网络。

P-DARTS

P-DARTS 是同济大学和华为诺亚方舟实验室提出的一种渐进式的可微分网络结构搜索方法,致力于提升 DARTS 的迁移性能。在 CIFAR10和 CIFAR100数据集上搜索基本单元,单个P100 GPU上只需要7个小时。在DARTS中,网络结构搜索是在一个拥有8个 cell 的搜索网络上进行的,然而却是在一个拥有20个 cell 的网络上测试的,在搜索网络和测试网络之间有一个很大的深度差异。

  • P-DARTS 渐进地增加搜索网络深度。P-DARTS 提出搜索空间近似,划分学习阶段,减少候选操作的种类的同时增加深度,从而降低显存和时间消耗。算法能够在16 GB 显存的 GPU 上运行。
  • 上一阶段结尾将一些操作从搜索空间中删去,因此需要从头开始训练网络参数和结构参数。但是训练一个更深的网络往往比训练一个较浅的网络更难。信息往往倾向于通过 skip-connect 流动,而不是卷积。作者提出搜索空间正则,在 skip-connect 操作添加操作层面的 Dropout 来防止其过拟合到 skip-connect 上,同时限制最终结构中的 skip-connect 操作数量来进一步提高稳定性。
  • 作者同时观察到测试时的识别准确率与搜索到的结构中的 skip-connect 操作数量与最终性能高度相关。因此,作者提出第二个搜索空间正则方法,即在最终生成的网络结构中,保留固定数量的 skip-connect 操作。具体的,作者根据最终阶段的结构参数,只保留权值最大的 M 个 skip-connect 操作,这一正则方法保证了搜索过程的稳定性。在本文中, M=2 。

P-DARTS 能够在 16 GB 显存的 GPU 上完成搜索。

PC-DARTS

DARTS 将操作选择转换为固定操作集的加权组合,为寻找有效的网络架构提供了快速解决方案。但联合训练超网络和搜索最优结构,内存和计算开销很大。P-DARTS 减少搜索空间,而这一近似会导致可能牺牲已发现架构的最优性。PC-DARTS 通过对超网络的一小部分进行采样以减少网络空间中的冗余,从而在不损害性能的情况下提高搜索效率。具体来说,PC-DARTS 在通道子集中执行操作搜索,并保持其他部分不变。采样不同通道可能造成在选择超网络的边时出现不一致。PC-DARTS 通过引入边正则(edge normalization)来解决这个问题,在搜索过程中添加了一组新的边级超参数,以减少搜索中的不确定性。项目地址为:yuhuixu1993/PC-DARTS。

PC-DARTS 即部分连接 DARTS,核心思想是直观的:随机抽取其中的一个子集进行操作选择,同时直接放过其余部分,而不是将所有通道都送到操作选择块中。PC-DARTS 假设该子集的计算能近似替代所有通道。除了内存和计算成本都大大降低之外,采样带来了另一个好处,即操作搜索正则化,不易陷入局部最优。然而,PC-DARTS 也带来了副作用,即网络连接的选择将变得不稳定,因为在迭代中会采样不同的信道子集。因此,PC-DARTS 引入边正则(edge normalization)来通过显式学习一组额外的边选择超参数来稳定对网络连接的搜索。通过在整个训练过程中共享这些超参数,所学习的网络结构不易受迭代中通道采样的影响,因此更加稳定。

得益于部分连接策略,PC-DARTS 能够相应地增加批量大小。在实践中,PC-DARTS 为每个操作选择随机抽取 1/K1/K1/K 的通道,这将减少几乎 KKK 倍的内存成本。这使得我们可以在搜索过程中使用 K×K\timesK× 批量大小,不仅可以将搜索速度加快 KKK 倍,而且还稳定了搜索,特别是对于大型数据集。

当然,以上都是作者观点。读代码的话会发现通道不是随机取的,而是固定取前 1/K1/K1/K。所以“边正则”概念就有点飘了。DARTS 不仅仅选择操作,还会像剪枝一样确定连接。然而同层会有多个 softmax 输出,从中选最大显得不甚合理。额外加一组结构参数应该可以改善这一点。

DARTS 的缺点在于其内存效率低下。为了适应 ∣O∣|\mathcal{O}|O 操作,在搜索架构的主要部分中,∣O∣|\mathcal{O}|O 操作副本及其输出需要存储在每个节点(即每个网络层),导致 ∣O∣×|\mathcal{O}|\timesO× 次内存使用。要装进GPU,必须在搜索期间减小批量大小,这不可避免地降低搜索速度,并且较小的批量大小可能降低搜索稳定性和准确性。

或者,内存效率的另一种解决方案是部分通道连接,如下图所示。以 xi\mathbf{x}_ixixj\mathbf{x}_jxj 的连接为例。这涉及定义一个通道采样掩码 Si,j\mathbf{S}_{i,j}Si,j,它为所选通道分配 111,为屏蔽的通道分配 000。所选通道送入 ∣O∣\left|\mathcal{O}\right|O 混合操作计算,而屏蔽通道则绕过这些操作,即直接复制到输出,
在这里插入图片描述
fi,jPC&NegativeThinSpace;(xi;Si,j)=∑o∈Oexp⁡{αi,jo}∑o′∈Oexp⁡{αi,jo′}⋅o&NegativeThinSpace;(Si,j∗xi)+(1−Si,j)∗xi.{f_{i,j}^\mathrm{PC}\!\left(\mathbf{x}_i;\mathbf{S}_{i,j}\right)}={{\sum_{o\in\mathcal{O}}}\frac{\exp\left\{\alpha_{i,j}^o\right\}}{{\sum_{o&#x27;\in\mathcal{O}}}\exp\left\{\alpha_{i,j}^{o&#x27;}\right\}}\cdot o\!\left(\mathbf{S}_{i,j}\ast\mathbf{x}_i\right)+\left(1-\mathbf{S}_{i,j}\right)\ast\mathbf{x}_i}. fi,jPC(xi;Si,j)=oOoOexp{αi,jo}exp{αi,jo}o(Si,jxi)+(1Si,j)xi.
其中,Si,j∗xi\mathbf{S}_{i,j}\ast\mathbf{x}_iSi,jxi(1−Si,j)∗xi\left(1-\mathbf{S}_{i,j}\right)\ast\mathbf{x}_i(1Si,j)xi 分别表示选定和屏蔽的通道。

在实践中,PC-DARTS 将 KKK 视为超参数,设置选中通道的比例为 1/K1/K1/K。 通过改变 KKK,可以在架构搜索准确度(较小的 KKK)和效率(较大的 KKK)之间进行权衡以取得平衡。

KKK 带来的直接好处是 fi,jPC&NegativeThinSpace;(xi;Si,j)f_{i,j}^\mathrm{PC}\!\left(\mathbf{x}_i;\mathbf{S}_{i,j}\right)fi,jPC(xi;Si,j) 计算减少 KKK 次。这允许使用更大的批量大小进行结构搜索。随即有两方面的好处:

  • 首先,计算成本也可以减少 KKK 倍。
  • 此外,较大的批量大小意味着可以在每次迭代期间对更多训练数据进行采样。这对于结构搜索尤为重要。在大多数情况下,一个操作相对于另一个操作的优势并不显著,除非在一个小批量中包含更多的训练数据,以减少更新网络权重和架构参数的不确定性。

通道采样对神经架构搜索的影响既有有积极的也有消极的:

  • 在好的一面,为混合操作输入一小部分通道,同时保持其余部分不变,可以减少在选择操作时的偏向。换句话说,对于边 (i,j)\left(i,j\right)(i,j),给定输入 xi\mathbf{x}_ixi,使用两组超参数 {αi,jo}\left\{\alpha_{i,j}^o\right\}{αi,jo}{αi,j′o}\left\{\alpha_{i,j}^{\prime o}\right\}{αi,jo} 的差别大大减少了,因为只有一小部分(1/K1/K1/K)的输入通道将通过混合操作,而其余通道保持不变。这削弱了 O\mathcal{O}O 中无参数操作(如 skip-connect、max-pooling 等)相对于含参操作(例如各种卷积)的优势。在早期阶段,搜索算法通常更青睐无参操作,因为它们没有训练参数,从而产生更一致的输出,即 o&NegativeThinSpace;(xi)o\!\left(\mathbf{x}_i\right)o(xi)。相比之下,在参数得到充分优化之前,含参操作在迭代中传播的信息不一致。因此,无参操作通常会在开始时累积较大的权重(即 αi,jo\alpha_{i,j}^oαi,jo),这使得含参操作即使在经过良好训练之后也很难击败它们。当(执行结构搜索的)代理数据集很难时,这种现象尤其显著,这阻碍了 DARTS 在 ImageNet 上获得令人满意的搜索结果。

  • 不利的一面是,和 DARTS 一样,在一个单元格中,每个输出节点 xj\mathbf{x}_jxj 需要从其先例 {x0,x1,…,xj−1}\left\{\mathbf{x}_0,\mathbf{x}_1,\ldots,\mathbf{x}_{j-1}\right\}{x0,x1,,xj1} 中选取两个输入节点,候选操作权重为 max⁡oα0,jo,max⁡oα1,jo,…,max⁡oαj−1,jo\max_o\alpha_{0,j}^o,\max_o\alpha_{1,j}^o,\ldots,\max_o\alpha_{j-1,j}^omaxoα0,jo,maxoα1,jo,,maxoαj1,jo。然而,这些架构参数通过迭代中的随机采样通道进行优化。因此,当采样通道随时间变化时,由它们确定的最佳连接性可能不稳定。这可能导致所得网络架构中出现预期之外的波动。为了缓解这个问题,PC-DARTS 引入了边正则化,βi,j\beta_{i,j}βi,j 明确地权衡每个边 (i,j)\left(i,j\right)(i,j),因此 xj\mathbf{x}_jxj 的计算成为:
    xjPC=∑i&lt;jexp⁡{βi,j}∑i′&lt;jexp⁡{βi′,j}⋅fi,j&NegativeThinSpace;(xi).\mathbf{x}_j^\mathrm{PC}={\sum_{i&lt;j}\frac{\exp\left\{\beta_{i,j}\right\}}{{\sum_{i&#x27;&lt;j}}\exp\left\{\beta_{i&#x27;,j}\right\}}\cdot f_{i,j}\!\left(\mathbf{x}_i\right)}. xjPC=i<ji<jexp{βi,j}exp{βi,j}fi,j(xi).

具体来说,在架构搜索完成后,边 (i,j)\left(i,j\right)(i,j) 的连接由 {αi,jo}\left\{\alpha_{i,j}^o\right\}{αi,jo}βi,j\beta_{i,j}βi,j 确定。PC-DARTS 归一化系数,然后相乘,即 exp⁡{βi,j}∑i′&lt;jexp⁡{βi′,j}⋅exp⁡{αi,jo}∑o′∈Oexp⁡{αi,jo′}\frac{\exp\left\{\beta_{i,j}\right\}}{{\sum_{i&#x27;&lt;j}}\exp\left\{\beta_{i&#x27;,j}\right\}} \cdot \frac{\exp\left\{\alpha_{i,j}^o\right\}}{{\sum_{o&#x27;\in\mathcal{O}}}\exp\left\{\alpha_{i,j}^{o&#x27;}\right\}}i<jexp{βi,j}exp{βi,j}oOexp{αi,jo}exp{αi,jo}。 由于 βi,j\beta_{i,j}βi,j 在训练过程中共享,因此学习的网络架构不易受迭代间采样通道影响,从而使架构搜索更加稳定。

P-DARTS 在 skip-connect 之后应用了 dropout,以避免参数化和无参数操作之间的信息不平衡。

SNAS

随机神经网络架构搜索(Stochastic Neural Architecture Search,SNAS),是商汤发表在 ICLR 2019上的一篇文章,吸收了 ENAS 和 DARTS 的优点。SNAS 的实质似乎就是将 DARTS 中的 Softmax 换成了Concrete distribution 并加了资源约束项,然而整个叙述却十分复杂。SNAS 在同一轮反向传播中训练神经运算的参数和架构的分布参数(这样真的好?)。号称的思想是,利用泛化损失中的梯度信息提高基于强化学习的 NAS 的效率。

  • 与基于强化学习的方法[ENAS]相比,SNAS 的搜索优化可微分,搜索效率更高,可以在更少的迭代次数下收敛到更高准确率。
  • 与其他可微分的方法[DARTS]相比,SNAS 直接优化 NAS 任务的目标函数,搜索结果偏差更小,可以直接通过一阶优化搜索。
  • 同时优化网络损失函数的期望和网络前向时延的期望,可以自动生成硬件友好的稀疏网络。

SNAS 的实验设置基本与 DARTS 相同。

SNAS 将子网络运行延迟作为目标的正规化项:

EZ∼pα(Z)[Lθ(Z)+ηC(Z)]=EZ∼pα(Z)[Lθ(Z)]+ηEZ∼pα(Z)[C(Z)],\begin{aligned} \mathbb{E}_{\mathit{Z}\sim p_{\mathit{\alpha}}(\mathit{Z})}[L_{\mathit{\theta}}(\mathit{Z})+\eta C(\mathit{Z})]=\mathbb{E}_{\mathit{Z}\sim p_{\mathit{\alpha}}(\mathit{Z})}[L_{\mathit{\theta}}(\mathit{Z})]+\eta \mathbb{E}_{\mathit{Z}\sim p_{\mathit{\alpha}}(\mathit{Z})}[C(\mathit{Z})], \end{aligned} EZpα(Z)[Lθ(Z)+ηC(Z)]=EZpα(Z)[Lθ(Z)]+ηEZpα(Z)[C(Z)],
其中 C(Z)C(\mathit{Z})C(Z) 是与随机变量 Z\mathit{Z}Z 相关联的子网络的时间成本,包含3项指标:

  • 参数量;
  • 浮点运算(float-point operations, FLOPs)的数量;
  • 内存访问成本(memory access cost,MAC)。

FBNet

在这里插入图片描述

与 BSN 相同,FBNet 以随机超网络表示搜索空间。将寻找最佳架构的问题放宽为找到产生最优体系结构的分布。借助于 Gumbel Softmax 可以使用基于梯度的优化(如 SGD)直接训练架构分布。损失包括交叉熵损失和延迟损失。相当于宏搜索版的 SNAS。

随机超网络对候选块进行采样,采样概率为
Pθl(bl=bl,i)=softmax(θl,i;θl)=exp⁡(θl,i)∑iexp⁡(θl,i).P_{\bm{\theta}_{l}}(b_l = b_{l,i}) = \text{softmax}(\theta_{l,i}; \bm{\theta}_l) = \frac{\exp(\theta_{l,i})}{\sum_i \exp(\theta_{l,i})}. Pθl(bl=bl,i)=softmax(θl,i;θl)=iexp(θl,i)exp(θl,i).
θl\bm{\theta}_lθl 包含的参数确定在第 lll 层采样每个块的概率。同样,第 lll 层的输出可以表示为
xl+1=∑iml,i⋅bl,i(xl),x_{l+1} = \sum_i m_{l, i} \cdot b_{l, i}(x_{l}), xl+1=iml,ibl,i(xl),
其中 ml,im_{l,i}ml,i{0,1}\{0, 1\}{0,1} 中的随机变量,如果采样块 bl,ib_{l, i}bl,i,则计算结果为1。采样概率由前面的等式确定。bl,i(xl)b_{l, i}(x_{l})bl,i(xl) 表示给定输入特征图 xlx_{l}xl 的情况下,第 lll 层的第 iii 块的输出。FBNet 让每个层独立采样,因此,采样架构 aaa 的概率可以描述为
Pθ(a)=∏lPθl(bl=bl,i(a)),P_{\bm{\theta}}(a) = \prod_l P_{\bm{\theta}_l} (b_l = b_{l,i}^{(a)}), Pθ(a)=lPθl(bl=bl,i(a)),
其中 θ\bm{\theta}θ 为一个向量,元素 θl,i\theta_{l,i}θl,i 为第 iii 块的第 lll 层的采样参数。 bl,i(a)b_{l,i}^{(a)}bl,i(a) 表示在采样架构中 aaa,在第 lll 层中选中第 iii 个块。

松弛求解最佳架构 a∈Aa \in \mathcal{A}aA 问题为优化随机超网络的概率 PθP_\thetaPθ 以实现最小预期损失,公式重写为
min θmin waEa∼Pθ{L(a,wa)}.\underset{\bm{\theta}}{\text{min }} \underset{w_a}{\text{min }} \mathbf{E}_{a \sim P_{\bm{\theta}}} \{\mathcal{L}(a, w_a) \}. θmin wamin EaPθ{L(a,wa)}.

将离散掩码变量 ml,im_{l,i}ml,i 放宽为由 Gumbel Softmax 函数计算的连续随机变量:
ml,i=GumbelSoftmax(θl,i∣θl)=exp⁡[(θl,i+gl,i)/τ]∑iexp⁡[(θl,i+gl,i)/τ],\begin{aligned} m_{l, i} &amp; = \text{GumbelSoftmax}(\theta_{l, i}|\bm{\theta_{l}}) \\ &amp; = \frac{\exp[(\theta_{l,i} + g_{l,i})/\tau]}{\sum_i \exp[(\theta_{l,i} + g_{l,i})/\tau]}, \end{aligned} ml,i=GumbelSoftmax(θl,iθl)=iexp[(θl,i+gl,i)/τ]exp[(θl,i+gl,i)/τ],
其中 gl,i∼Gumbel(0, 1)g_{l,i} \sim \text{Gumbel(0, 1)}gl,iGumbel(0, 1) 是 Gumbel 分布的随机噪声。Gumbel Softmax 函数由温度参数 τ\tauτ 控制。当 τ\tauτ 接近0时,它近似于 Pθ(a)=∏lPθl(bl=bl,i(a))P_{\bm{\theta}}(a) = \prod_l P_{\bm{\theta}_l} (b_l = b_{l,i}^{(a)})Pθ(a)=lPθl(bl=bl,i(a)) 中分布的离散分类抽样。随着 τ\tauτ 变大,ml,im_{l,i}ml,i 成为一个连续的随机变量。无论 τ\tauτ 的值如何,掩码 ml,im_{l,i}ml,i 都对参数 θl,i\theta_{l, i}θl,i 可微。DNAS 和 SNAS 同样使用 Gumbel Softmax 进行网络结构搜索。

对于延迟项,FBNet 使用基于查找表的模型进行效率估计,因此 LAT(a)\text{LAT}(a)LAT(a) 公式可以写为
LAT(a)=∑l∑iml,i⋅LAT(bl,i).\text{LAT}(a) = \sum_l \sum_i m_{l,i} \cdot \text{LAT} (b_{l,i}). LAT(a)=liml,iLAT(bl,i).
每个运算符 LAT(bl,i)\text{LAT} (b_{l,i})LAT(bl,i) 的延迟是一个常数系数,从而架构 aaa 的整体延迟相对于掩码 ml,im_{l,i}ml,i 是可微分的。

训练过程为:

  • 随机取 ImageNet 的100类在8 GPU 机器上训练随机超网络90个 epoch,batchsize=192;
  • 挑选出最优结构后,在 ImageNet 上训练360个 epoch,batchsize=256。

FBNet 的搜索空间参考 MobileNetV2 和 ShiftNet ,网络首尾固定,中间的22层可调,如 Table 1 所示。
Macro-architecture of the search space
块结构如下图所示,深度分离卷积可选3x3或5x5的卷积核,块内的首尾1x1卷积可替换为 group + channel shuffle。

值得注意的是网络没有使用 BN,论文也未谈到这一点。但 fbnet_builder 中是有的。

block
从 ImageNet 中随即取100类作为训练集,历经90个 epoch。找到最优结构后,从头训练模型。损失函数为:
L(a,wa)=CE(a,wa)⋅αlog⁡(LAT(a))β\begin{aligned} \mathcal{L}(a, w_a) = \text{ CE}(a, w_a) \cdot \alpha \log(\text{LAT}(a))^\beta \end{aligned} L(a,wa)= CE(a,wa)αlog(LAT(a))β
第一项 CE(a,wa)\text{CE}(a, w_a)CE(a,wa) 表示架构 aaa 与相应参数 waw_awa 的交叉熵损失。第二项 LAT(a)\text{LAT}(a)LAT(a) 表示目标硬件上体系结构的延迟,以微秒为单位。系数 α\alphaα 控制损失函数的总体大小。指数系数 β\betaβ 调制延迟项的大小。除了 log 外,形式与 MnasNet 类似。

FBNet 预先测试每个 op 的耗时,创建查找表来估计不同模型的延时。目标设备为 Samsung Galaxy S8和 iPhone X。

LAT(a)=∑lLAT(bl(a)),\begin{aligned} \text{LAT}(a) = \sum_l \text{LAT} (b_l^{(a)}), \end{aligned} LAT(a)=lLAT(bl(a)),

其中 bl(a)b_l^{(a)}bl(a) 表示架构 aaa 来自第 lll 层的块。

FBNet 将模型量化到 int8 在 Caffe2上测试,为对比将其他方法也进行了转换。

ProxylessNAS

D
R
DARTS
ProxylessNAS
BinaryConnect
REINFORCE
MobileNetV2

可微 NAS 通过网络架构的连续表示来降低训练时长,但会遇到高 GPU 内存消耗问题(随候选集大小线性增长)。ProxylessNAS 着眼于减少内存消耗,在训练时采样两条路径。采用强化学习和梯度下降两种方法训练 CPU、GPU 以及移动处理器3个平台上的模型。文中试图套用 BinaryConnect ,大讲二值化。然而路径二值化并不能降低内存消耗,实际运行机理与此毫不相干。直接在目标数据集上训练也有点噱头,因为分摊下来每条路径的训练轮数不多。论文题目不如改成随机采样更新的 Softmax 近似。而且,采样路径却未提 BatchNorm 如何应对。一个鲜明的例子是 DenseNAS 也使用路径采样方法,但未提及二值化。

ProxylessNAS 受 DARTS 和 One-Shot 的启发 , 将 NAS 定义为路径级修剪过程。
method
ProxylessNAS 在目标硬件上学习专用网络结构,但硬件目标(以延迟为例)不可微分。为此,其将网络延迟建模为连续函数,并作为正则化损失进行优化,类似于 SNAS。此外,ProxylessNAS 还提出了一种基于 REINFORCE规则 的算法(Proxyless-R),作为处理硬件度量的替代策略。

ProxylessNAS 将路径 N 选择一分解为多个二进制选择任务。 直觉是,如果一条路径是特定位置的最佳选择,那么与任何其他路径相比,它应该是更好的选择。

在结构参数的更新步骤中:

  • 首先根据多项分布 (p1,⋯&ThinSpace;,pN)(p_1, \cdots, p_N)(p1,,pN) 对两条路径进行采样,并屏蔽所有其他路径,就好像它们不存在一样。因此,候选数暂时从 NNN 减少到2,而路径权重 {pi}\{p_i\}{pi} 和二进制门 {gi}\{g_i\}{gi} 相应地重置。
  • 然后,我们使用通过公式(4)计算的梯度更新这两个采样路径的架构参数。
  • 最后,由于通过将 softmax 应用于架构参数来计算路径权重,需要通过乘以比率来重新调整这两个更新的架构参数的值,以保持未采样路径的路径权重不变。

这样,在每个更新步骤中,一个采样路径被增强(路径权重增大),另一个采样路径被衰减(路径权重减小),而所有其他路径保持不变。这样,无论 NNN 的值如何,在架构参数的每个更新步骤中仅涉及两条路径,从而将内存需求降低到训练紧凑模型的相同水平。

为了使延迟可微分,ProxylessNAS 将网络的延迟建模为神经网络维度的连续函数。考虑具有候选集 {oj}\{o_j\}{oj} 的混合操作,并且每个 ojo_joj 与路径权重 pjp_jpj 相关联,该权重表示选择 ojo_joj 的概率。因此,混合操作(即可学习块)的预期延迟如下:
E[latencyi]=∑jpji×F(oji),\mathbb{E} [\text{latency}_i] = \sum_j p_j^i \times F(o_j^i), E[latencyi]=jpji×F(oji),
其中 E[latencyi]\mathbb{E} [\text{latency}_i]E[latencyi]ithi^{th}ith 可学习块的预期延迟,F(⋅)F(\cdot)F() 表示延迟预测模型,F(oji)F(o_j^i)F(oji)ojio_j^ioji 的预测延迟。因此,E[latencyi]\mathbb{E} [\text{latency}_i]E[latencyi] 关于体系结构参数的梯度为: ∂E[latencyi]/∂pji=F(oji)\partial \mathbb{E} [\text{latency}_i]~/~\partial p_j^i = F(o_j^i)E[latencyi] / pji=F(oji)
method_illustration
对于具有一系列混合操作的整个网络,由于这些操作在推理期间按顺序执行,因此网络的预期延迟可以用这些混合操作的总预期延迟之和表示:
E[latency]=∑iE[latencyi],\mathbb{E} [\text{latency}] = \sum_i \mathbb{E} [\text{latency}_i], E[latency]=iE[latencyi],

Proxyless-G 通过乘以比例因子 λ2(&gt;0)\lambda_2 (&gt; 0)λ2(>0) 将网络的预期延迟纳入正常损失函数,该比例因子控制精度和延迟之间的权衡。最终的损失函数给出为

Loss=LossCE+λ1∣∣w∣∣22+λ2E[latency],Loss = Loss_{CE} + \lambda_1 ||w||_2^2 + {\color{red} \lambda_2 \mathbb{E}[\text{latency}]}, Loss=LossCE+λ1w22+λ2E[latency],
其中 LossCELoss_{CE}LossCE 表示交叉熵损失,λ1∣∣w∣∣22\lambda_1 ||w||_2^2λ1w22 是权重衰减项。

ProxylessNAS 还可以利用 REINFORCE 来训练二值化权重。考虑具有二进制化参数 α\alphaα 的网络,更新二进制化参数的目的是找到最大化某个奖励 R(⋅)R(\cdot)R() 的最佳二进制门 ggg 。为便于说明,这里假设网络只有一个混合操作。因此,根据 REINFORCE ,对二进制化参数进行了以下更新:
J(α)=Eg∼α[R(Ng)]=∑ipiR(N(e=oi)),∇αJ(α)=∑iR(N(e=oi))∇αpi=∑iR(N(e=oi))pi∇αlog⁡(pi),=Eg∼α[R(Ng)∇αlog⁡(p(g))]≈1M∑i=1MR(Ngi)∇αlog⁡(p(gi)),\begin{aligned} J(\alpha) &amp;= \mathbb{E}_{g \sim \alpha}[R(\mathcal{N}_g)] = \sum_i p_i R(\mathcal{N}(e = o_i)), \\ \nabla_\alpha J(\alpha) &amp;= \sum_i R(\mathcal{N}(e = o_i)) \nabla_\alpha p_i = \sum_i R(\mathcal{N}(e = o_i)) p_i \nabla_\alpha \log(p_i), \\ &amp;= \mathbb{E}_{g \sim \alpha} [R(\mathcal{N}_g) \nabla_\alpha \log(p(g))] \approx \frac{1}{M} \sum_{i=1}^M R(\mathcal{N}_{g^i}) \nabla_\alpha \log(p(g^i)), \end{aligned} J(α)αJ(α)=Egα[R(Ng)]=ipiR(N(e=oi)),=iR(N(e=oi))αpi=iR(N(e=oi))piαlog(pi),=Egα[R(Ng)αlog(p(g))]M1i=1MR(Ngi)αlog(p(gi)),

其中 gig^igi 表示第 ithi^{th}ith 个采样二进制门,p(gi)p(g^i)p(gi) 表示根据公式2采样 gig^igi 的概率,Ngi\mathcal{N}_{g^i}Ngi 是根据二进制门 gig^igi 的紧凑型网络。由于上式不需要 R(Ng)R(\mathcal{N}_g)R(Ng)ggg 可微,因此它可以处理不可微分的目标。一个有趣的观察是,公式eq:reinforce具有与标准 NAS 类似的形式,但它不是一个连续的决策过程,并且没有使用 RNN 元控制器。此外,由于基于梯度的更新和基于 REINFORCE 的更新对于相同的二值化体系结构参数基本上是两个不同的更新规则,因此可以将它们组合以形成体系结构参数的新更新规则。

Proxyless-R 与 MnasNet 类似,使用 ACC(m)×[LAT(m)/T]wACC(m) \times [ LAT(m) / T]^wACC(m)×[LAT(m)/T]w 作为优化目标,其中 ACC(m)ACC(m)ACC(m) 表示模型 mmm 的准确率,LAT(m)LAT(m)LAT(m) 表示 mmm 的延迟,TTT 是目标延迟,www 是用于控制准确性和延迟之间权衡的超参数。

ProxylessNAS 与 DARTS 在验证集上训练结构参数 α{\alpha}α,而 FBNet 未进行划分。

ProxylessNAS 设置一系列 MBConv,卷积核大小可选 {3,5,7}\{3, 5, 7\}{3,5,7} 扩张系数为 {3,6}\{3, 6\}{3,6}

令人困惑的是 ProxylessNAS 的 batchsize=256,FBNet 为192。FBNet 只用 ImageNet 的1/10,ProxylessNAS 使用全部,二者训练时间却相同。FBNet 估计 MnasNet 的成本为91000 GPU hours;ProxylessNAS 实现的是40000。假定 ProxylessNAS 用的是 V100(测试平台是这一型号), FBNet 的设备似乎与之存在代差。

Single-Path NAS

Single-Path NAS 是一种单路径(或者 superkernel)方法。用一个7x7的大卷积,来代表3x3、5x5和7x7的三种卷积,把外边一圈 mask 清零掉就变成了3x3或5x5。扩张系数类似,认为6包含两个3,实现高度的参数复用。

在这里插入图片描述在这里插入图片描述

省显存,然而本质还是搜索空间小。基础网络参考 FBNet,仅搜索 expansion rate 和 kernel size。Single-Path NAS 代码 dstamoulis/single-path-nas 完全开源,依赖 TensorFlow 和 TPU,使用 facebook/FAI-PEP 分析模型每层的运行时间。比较有意思的是文中的表格,几种搜索算法结果并未拉开差距。

single-path nas

DenseNAS

DenseNAS 由地平线和华中科技大学联合提出,号称可以搜索网络结构中每个 block 的宽度和对应的空间分辨率。DenseNAS 构建一个密集连接的搜索空间。每个块的滤波器的数量(即宽度)以小步幅逐渐增加。搜索空间参考 MobileNetV2 并采用密集连接的形式构建。搜索空间比之前一些算法大。然而 DenseNAS 与 FBNet 一样训练集取 ImageNet 的1/10,同时类似 ProxylessNAS 采样路径训练,反而比二者训练时间缩短一半。

如下图所示,DenseNAS 在三个不同的级别(layerblocknetwork)定义搜索空间:

  • 每个层都包含所有候选操作;
  • 一个块可以分为两个组件:头部层和堆叠层;
  • 整个网络使用具有增量宽度的块构建。
    search space

层为搜索空间中的基本结构。一层代表一组候选操作。搜索空间中的操作集合如表 Table 1 所示。
Table 1
每个块由若干层组成,拥有固定宽度和相应的空间分辨率。头部层处理具有不同通道数和空间分辨率的输入张量,并转换为固定宽度和空间分辨率。头部层不包括跳过连接,因为它是所有块所必需的。头部层之后是许多堆叠层(图中的例子中是三层)。之后,堆叠层中的操作以相同数量的通道和空间分辨率执行。

MnasNet、ProxylessNAS 和 FBNet 设置固定数量的块。DenseNAS 在搜索空间中设计了更多具有不同宽度的块,并允许搜索架构只包含块的子集,从而使搜索算法能够自由地选择具有特定宽度的块,同时丢弃其他块。

整个超网络架构定义为 ArchArchArch,并假设它包含 NNN 个块:Arch={B1,B2,...,BN}Arch = \{B_1, B_2, ..., B_N\}Arch={B1,B2,...,BN}。 DenseNAS 将整个网络划分为几个阶段。每个阶段拥有不同的宽度范围和固定的空间分辨率。超网络从头到尾,块的宽度以小步幅逐渐增长。网络的早期阶段设定较小的宽度增长步幅,因为设置较大将导致巨大的计算成本。后期阶段增长幅度逐渐变大。如结构图所示,在第3阶段,空间分辨率设置为 28×2828 \times 2828×28,宽度增长步幅为8。宽度增长步幅在第4阶段变为16,阶段5变为64。

定义块 BiB_iBi 和后续块 BjB_jBjj&gt;ij &gt; ij>i)之间的连接为 CijC_{ij}CijBiB_iBiBjB_jBj 的空间分辨率分别为 Hi×WiH_i \times W_iHi×Wi(通常 Hi=WiH_i = W_iHi=Wi)和 Hj×WjH_j \times W_jHj×Wj。DenseNAS 限制连接仅在空间分辨率相差不超过两倍的块之间。因此,当 j−i≤mj - i \leq mjimHj/Hi≤2H_j / H_i \leq 2Hj/Hi2 时,CijC_{ij}Cij 存在。搜索空间基于密集连接的块构建。 但是,只选择一条路径来导出最终的结构。DenseNAS 不仅搜索每个块中的层数,而且还搜索块宽度和块数。同时确定执行空间下采样的层。目标是在搜索空间中找到一条良好的路径,代表架构的最佳深度和宽度配置。

bib_ibi 为第 iii 个块 BiB_iBi 的输出张量。每个块连接到后续 mmm 块。为了将块连接松弛为连续表示,DenseNAS 为块的每个输出路径分配块级架构参数。也就是说,对于从块 BiB_iBiBjB_jBj 的路径,它们之间的路径有一个参数 βij\beta_{ij}βij。与计算每个操作的权重类似,使用 softmax 函数计算两个块之间所有路径的概率:
pij=exp⁡(βij)∑k=1mexp⁡(βik).p_{ij} = \frac{\exp(\beta_{ij})}{\sum_{k=1}^m \exp(\beta_{ik})}. pij=k=1mexp(βik)exp(βij).

假设块 BiB_iBi 需要来自先前块的 m′m&#x27;m 输入张量,即 Bi−m′B_{i-m&#x27;}Bim, Bi−m′+1B_{i-m&#x27;+1}Bim+1, Bi−m′+2B_{i-m&#x27;+2}Bim+2Bi−1B_{i-1}Bi1。来自这些块的输入张量在通道数和空间分辨率上有所不同。因此,每个输入张量由 BiB_iBi 中的头部层变换为统一大小,然后求和。设 HikH_{ik}Hik 表示块 BiB_iBi 中第 kkk 个头部层对输入张量 Bi−kB_{i-k}Bik 的转换,其中 k=1..m′k=1..m&#x27;k=1..m。转换后的输入张量之和可通过以下公式计算:

xi=∑k=1m′pi−k,i⋅Hik(xi−k).x_i = \sum_{k=1}^{m&#x27;} p_{i-k, i} \cdot H_{ik}(x_{i-k}). xi=k=1mpik,iHik(xik).

值得注意的是,路径概率在块输出维度上标准化,但应用于后续块的输入维度(更具体地说,在头部层上)。头部层本质上是是候选操作的混合加权和。层级参数 α\alphaα 控制要选择的操作,而外部块级参数 β\betaβ 决定要连接的块。
DenseNAS 的训练方式与 DARTS 类似,权重和架构的优化过程按 epoch 交替进行。搜索过程完成后,根据结构参数导出体系结构:

  • 在层级别,选择具有最大体系结构权重的候选操作,即 argmaxo∈Oαoℓargmax_{o \in \mathcal{O}} \alpha_o^\ellargmaxoOαo
  • 在网络级,使用 Viterbi 算法根据每个块的输出路径概率来选择连接具有最高总转移概率的块的路径。

超网络包括搜索空间中的所有可能路径和操作。 one-shot 搜索方法在训练超级网络时会丢掉一些路径。该技术使独立模型的性能预测更准确。为了减少内存消耗并加快搜索过程,DenseNAS 采用了 drop-path 训练策略:

  • 当训练操作权重时,DenseNAS 在每一层根据结构参数分布 {αoℓ∣o∈O}\{\alpha_o^\ell | o \in \mathcal{O}\}{αooO} 从候选操作中采样出一条路径。丢弃路径训练不仅加速了搜索,而且减弱了搜索空间中不同结构的操作权重之间的耦合效应。
  • 训练结构参数时,像 ProxylessNAS一样根据结构权重分布在每个层中对两个操作进行采样。为了保持未采样的操作的体系结构权重不变,DenseNAS 计算重新平衡偏差以调整采样和新更新的参数。
    biass=ln⁡∑o∈Osexp⁡(αoℓ)∑o∈Osexp⁡(α′oℓ)\mathtt{bias}_s = \ln \frac{\sum_{o \in \mathcal{O}_s} \exp(\alpha_o^\ell)}{\sum_{o \in \mathcal{O}_s} \exp({\alpha&#x27;}_o^\ell)} biass=lnoOsexp(αo)oOsexp(αo)
    其中 Os\mathcal{O}_sOs 指的是采样的一组操作,αoℓ\alpha_o^\ellαo 指的是层 ℓ\ell 中最初采样的结构参数,α′oℓ{\alpha&#x27;}_o^\ellαo 是相应更新后的结构参数。训练时 biass\mathtt{bias}_sbiass 不断累加?

DSO-NAS

DSO-NAS 是初创企业图森未来的一篇文章,投 ICLR 2019 被拒。文中对比了不同方法的参数量和计算量。评审中附加了更多实验数据,从中可以看出在网络延迟方面不尽人意。
DSO-NAS 与 ProxylessNAS 一样将网络搜索看作是剪枝过程,采用团队前作 SSS(Sparse Structure Selection) 进行优化。不同的是 DSO-NAS 的 block 内部细分为4层,连接较为复杂。

参考资料:

  • 如何评价google Searching for MobileNetV3?
  • The Lightweight Face Recognition Challenge
  • guan-yuan/awesome-AutoML-and-Lightweight-Models
  • Literature on Neural Architecture Search
  • D-X-Y/Awesome-NAS
  • google-research/nasbench
  • microsoft/nni
  • 神经网络架构搜索(Neural Architecture Search)杂谈
  • Xuanyi Dong
  • ENAS的原理和代码解析
  • 业界 | 谷歌提出移动端AutoML模型MnasNet:精度无损速度更快
  • 多图演示高效的神经架构搜索
  • Gumbel-Softmax Trick和Gumbel分布
  • 旷视提出One-Shot模型搜索框架的新变体
  • 另一种可微架构搜索:商汤提出在反传中学习架构参数的SNAS
  • ICLR 2019|随机神经网络结构搜索 (SNAS)
  • 论文笔记系列-Neural Architecture Search With Reinforcement Learning
  • ENAS: 更有效地设计神经网络模型(AutoML)
  • 万字解读商汤科技ICLR2019论文:随机神经网络结构搜索
  • 同济和华为诺亚提出:渐进式可微网络结构搜索,显著提升可微式搜索的性能和稳定性,已开源
  • 论文解读:Single-Path NAS
  • 【ICLR 19】DARTS可微网络结构搜索
  • CVPR 2018 | 商汤科技Oral论文详解:BlockQNN自动网络设计方法
  • AutoML:NAS 之 Randomly Wired Neural Networks
  • A Survey on Neural Architecture Search
  • Neural architecture search
  • AutoML (1) - Introduction
  • Review: NASNet — Neural Architecture Search Network (Image Classification)
  • ENAS的原理和代码解析
  • 论文笔记系列-Neural Architecture Search With Reinforcement Learning
  • 旷视首席科学家孙剑:深度学习变革视觉计算丨CCF-GAIR 2019
  • DenseNAS:密集连接搜索空间下的高灵活度网络结构搜索 | 大牛讲堂
  • 强化学习系列(六):时间差分算法(Temporal-Difference Learning)
  • 强化学习 - 时间差分学习(Temporal-Difference Learning)
  • A3C、PPO、GAE笔记
  • One-Shot 神经网络搜索(NAS)的searching阶段到底在做什么?
  • AutoML for Object Detection
  • 解读小米MoGA:超过MobileNetV3的移动端GPU敏感型搜索
  • 如何通俗地讲解 viterbi 算法?
http://www.jmfq.cn/news/4860379.html

相关文章:

  • 沙河企业做网站/广州网络推广公司排名
  • 网站文件保护怎么做/帮收款的接单平台
  • 亳州做网站的公司/百度seo在哪里
  • wordpress自定义筛选/seo实战培训教程
  • 沈阳企业网站建设/南宁百度seo排名
  • 晨旭东方网站建设/网页推广怎么收取费用
  • wordpress footer copyright/山西seo基础教程
  • 泵阀网站建设/西安seo托管
  • 安庆 网站建设/百度广告公司联系方式
  • 做网站如何上传/网站检测中心
  • 郑州文化企业设计公司/厦门谷歌seo公司有哪些
  • 汕头怎么进行关键词优化/seo推广论坛
  • 网站建站多钱/搜索引擎营销是指
  • 百度网址ip/商品seo关键词优化
  • wordpress纯静态网站/在线生成个人网站
  • 做视频网站需要执照吗/活动推广朋友圈文案
  • 网站开发团队人员/广告平台推广渠道
  • 苏州网站建设网站建设/营销软文范例大全300字
  • 中国做网站公司排名/百度关键词优化怎么做
  • 做网站时点击显示/流量宝
  • 做网站官网需多少钱/百中搜
  • 学什么专业可以做网站/网站推广优化流程
  • 济南市历下区建设局官方网站/百度号码认证
  • 做任务免费领取东西的网站/安徽网站推广
  • 淄博百度网站制作/网页制作工具有哪些
  • 把网站内容全删掉 在重新建立会不会被k/5118网站如何使用免费版
  • 电影里的做视频在线观看网站/百度登录页面
  • java网站开发面试题/全自动推广引流软件
  • app网站开发价格/怎么免费建公司网站
  • wordpress安装编辑器/上海网站快速排名优化