当前位置: 首页> 娱乐> 八卦 > 兄弟懂的拿走不谢d8s8_成都建设局官网_seo指的是搜索引擎_最近发生的重大新闻

兄弟懂的拿走不谢d8s8_成都建设局官网_seo指的是搜索引擎_最近发生的重大新闻

时间:2025/7/18 3:38:14来源:https://blog.csdn.net/m0_69045813/article/details/145676899 浏览次数:0次
兄弟懂的拿走不谢d8s8_成都建设局官网_seo指的是搜索引擎_最近发生的重大新闻

目录

传统卷积神经网络存在的问题

如何解决

批量归一化BatchNormalization, BN

残差连接方式

​残差结构


ResNet网络

ResNet 网络是在 2015年 由微软实验室中的何凯明等几位大神提出,斩获当年ImageNet竞赛中分类任务第一名,目标检测第一名。获得COCO数据集中目标检测第一名,图像分割第一名。

传统卷积神经网络存在的问题

神经网络都是通过卷积层和池化层的叠加组成的。 在实际的试验中发现,随着卷积层和池化层的叠加,学习效果不会逐渐变好,反而出现2个问题: 1、梯度消失和梯度爆炸 梯度消失:若每一层的误差梯度小于1,反向传播时,网络越深,梯度越趋近于0 梯度爆炸:若每一层的误差梯度大于1,反向传播时,网络越深,梯度越来越大 2、退化问题

如何解决
  1. 为了解决梯度消失或梯度爆炸问题

    通过数据的预处理以及在网络中使用 BN(Batch Normalization)层来解决。

  2. 为了解决深层网络中的退化问题

    人为地让神经网络某些层跳过下一层神经元的连接,隔层相连,弱化每层之间的强联系。

如图可以看到层数越多错误率越低

批量归一化BatchNormalization, BN

Batch Normalization目的:使所有的feature map满足均值为0,方差为1的分布规律

对每个传入的图片进行归一化后,将其传入卷积神经层进行处理后得到特征图,然后再对这个特征图进行归一化处理,处理完再次进入卷积层处理,输出的特征图再次进行归一化。

残差连接方式

residual结构使用了一种shortcut的连接方式,也可理解为捷径。让特征矩阵隔层相加,注意F(X)和X形状要相同,所谓相加是特征矩阵相同位置上的数字进行相加。

残差结构

ResNet一共有5种残差网络结构,18层、34层、50层、101层、152层

关键字:兄弟懂的拿走不谢d8s8_成都建设局官网_seo指的是搜索引擎_最近发生的重大新闻

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

责任编辑: