当前位置: 首页 > news >正文

阿里巴巴做网站费用计入/宁波seo网站推广

阿里巴巴做网站费用计入,宁波seo网站推广,html5做动态网站建设,做网站的图哪来论文地址&#xff1a;Deep Residual Learning for Image Recognition 参考译文地址&#xff1a;http://blog.csdn.net/wspba/article/details/57074389 <深度残差网络学习对于图像识别领域的作用> 摘要 越深的神经网络训练起来越困难。本文展示了一种残差学习框架&am…

论文地址:Deep Residual Learning for Image Recognition

参考译文地址:http://blog.csdn.net/wspba/article/details/57074389

<深度残差网络学习对于图像识别领域的作用>

摘要

越深的神经网络训练起来越困难。本文展示了一种残差学习框架,能够简化使那些非常深的网络的训练,该框架使得层能根据其输入来学习残差函数而非原始函数(unreferenced functions)。本文提供了全面的依据表明,这些残差网络的优化更简单,而且能由更深的层来获得更高的准确率。本文在ImageNet数据集上使用了一个152层深的网络来评估我们的残差网络,虽然它相当于8倍深的VGG网络,但是在本文的框架中仍然只具有很低的复杂度。这些残差网络的一个组合模型(ensemble)在ImageNet测试集上的错误率仅为 3.57%。这个结果在2015年的ILSVRC分类任务上获得了第一名的成绩。我们在CIFAR-10上对100层和1000层的残差网络也进行了分析。

表达的深度在很多视觉识别任务中具有非常核心的重要性。仅仅由于我们相当深的表达,便在COCO目标检测数据集上获得了 28% 的相对提升。 深度残差网络是我们参加ILSVRC & COCO 2015 竞赛上所使用模型的基础,并且我们在ImageNet检测、ImageNet定位、COCO检测以及COCO分割上均获得了第一名的成绩。

介绍

深度卷积神经网络在图像分类领域取得了一系列的突破 。 深度网络很好的将一个端到端的多层模型中的低/中/高级特征以及分类器整合起来,特征的等级可以通过所堆叠层的数量(深度)来丰富。最近有结果显示,模型的深度发挥着至关重要的作用,这样导致了ImageNet竞赛的参赛模型都趋向于“非常深”——16 层 到30层 。许多其它的视觉识别任务的都得益于非常深的模型。

在深度的重要性的驱使下,出现了一个新的问题:训练一个更好的网络是否和堆叠更多的层一样简单呢?解决这一问题的障碍便是困扰人们很久的梯度消失/梯度爆炸,这从一开始便阻碍了模型的收敛。归一初始化(normalized initialization)和中间归一化(intermediate normalization)在很大程度上解决了这一问题,它使得数十层的网络在反向传播的随机梯度下降(SGD)上能够收敛。

当深层网络能够收敛时,一个退化问题又出现了:随着网络深度的增加,准确率达到饱和(不足为奇)然后迅速退化。意外的是,这种退化并不是由过拟合造成的,并且在一个合理的深度模型中增加更多的层却导致了更高的错误率,我们的实验也证明了这点。Fig.1展示了一个典型的例子
在这里插入图片描述
Fig.1 20层和56层的“plain”网络在CIFAR-10上的训练错误率(左)和测试错误率(右)。越深的网络在训练和测试上都具有越高的错误率。

退化的出现(训练准确率)表明了并非所有的系统都是很容易优化的。让我们来比较一个浅层的框架和它的深层版本。对于更深的模型,这有一种通过构建的解决方案:恒等映射(identity mapping)来构建增加的层,而其它层直接从浅层模型中复制而来。这个构建的解决方案也表明了,一个更深的模型不应当产生比它的浅层版本更高的训练错误率。实验表明,我们目前无法找到一个与这种构建的解决方案相当或者更好的方案(或者说无法在可行的时间内实现)。

本文中,我们提出了一种深度残差学习框架来解决这个退化问题。我们明确的让这些层来拟合残差映射(residual mapping),而不是让每一个堆叠的层直接来拟合所需的底层映射(desired underlying mapping)。假设所需的底层映射为 H(x),我们让堆叠的非线性层来拟合另一个映射: F(x):=H(x)−x。 因此原来的映射转化为: F(x)+x。我们推断残差映射比原始未参考的映射(unreferenced mapping)更容易优化。在极端的情况下,如果某个恒等映射是最优的,那么将残差变为0 比用非线性层的堆叠来拟合恒等映射更简单。

公式 F(x)+x 可以通过前馈神经网络的“shortcut连接”来实现(Fig.2)。Shortcut连接就是跳过一个或者多个层。在我们的例子中,shortcut 连接只是简单的执行恒等映射,再将它们的输出和堆叠层的输出叠加在一起(Fig.2)。恒等的shortcut连接并不增加额外的参数和计算复杂度。完整的网络仍然能通过端到端的SGD反向传播进行训练,并且能够简单的通过公共库(例如,Caffe)来实现而无需修改求解器(solvers)。在这里插入图片描述本文通过在imagenet上的实现证明了两件事:

模型容易优化
通过增加深度可以显著的看到模型准确率的提升

http://www.jmfq.cn/news/4858939.html

相关文章:

  • 滕州做网站的多少/互联网广告联盟
  • 哪个网站可以做片头/东莞市优速网络科技有限公司
  • 二级域名怎么做网站备案/阿里云建站
  • 石家庄小程序开发多少钱/seosem是指什么意思
  • php网站开发建设/国家大事新闻近三天
  • 高端品牌网站建设方案/提供seo顾问服务适合的对象是
  • dreamweaver学生用哪个版本/谷歌seo网站优化
  • 自己怎么网上注销公司/郑州seo外包顾问
  • https 网站架设/2021年10月新闻摘抄
  • 做搜狗网站排名软/站长工具最近查询
  • 宜昌网站seo收费/今天株洲最新消息
  • 学做网站教学百度网盘/上海关键词优化的技巧
  • mysql8 wordpress/东莞关键词优化软件
  • 怎么利用快站做网站/最新实时大数据
  • 做公司网站需要准备什么科目/网站seo优化课程
  • 可做宣传的网站都有哪些/怎么做一个网站平台
  • 地方网站 o2o/泉州seo托管
  • 潜江做网站/枫树seo
  • 如何自己制作网站/云南新闻最新消息今天
  • 宁波网站建设公司制作网站/做什么推广最赚钱
  • 建立网站基本知识/百度网站网址是多少
  • 最超值的郑州网站建设/永久免费二级域名申请
  • 网站建设研究的意义/google搜索引擎入口网址
  • 电子商务网站建设规划的内容/电商运营转行后悔了
  • app开发公司电话/seo关键词推广
  • 网络平台怎么搭建网站/如何搜索关键词热度
  • 动态网站开发语言介绍/网络营销工作内容
  • 线下引流的八种推广方式/seo如何优化网站步骤
  • 龙岩亿网行/重庆seo黄智
  • 中国少数民族网站建设/新型网络营销方式