残差网络性能机制 ResNet、DenseNet及网络结构应用

深度学习在过去的神经网络学习中,理论上层数越高的网络准确率越高,层数越高的网络其实在当时并没有提升准确率,单纯的堆层并不能提升网络的表现,有时甚至网络的层数越多,准确率越低,而深度残差网络机制ResNet可以解决这个问题。

残差网络ResNst

将前面的某一层数据输出直接跳过中间层,引入到后面的数据层输入部分。
残差网络跳跃式的结构,打破了传统的神经网络前层的输出只能给后层作为输入的惯例,使某一层的输出可以直接跨过几层作为后面某一层的输入。
残差网络本身并没有一个固定的结构与参数,使得残差网络非常灵活,可以有效的插入其他模型而提高模型表现。

       如图是ResNet的核心结构,残差网络以块(block)为单位,每个block由一系列的层和一个短路链接,短路链接将模块的输入和输出连接在一起,然后在元素层面上进行加(add),相当于跨过中间层,这样做不会产生额外的参数,不会增加计算的复杂度,而且保证加深后网络的性能不会比加深前差。

      在DenseNet中,一个层会和其余所有层相连。这也是它被称为“稠密连接”的原因。这样的话DenseNet的计算量会增加,运行速度也会变慢。DenseNet的主要构建模块是稠密块(dense block)和过渡层〈transition layer)。前者定义了输入和输出是如何连结的,后者则用来控制通道数,使之不过大。

残差稠密网络DenseNet

在DenseNet中,将每一层与其余层密集连接,一个层会和其余所有层相连。这样做的目的是可以确保各层之间的信息流动达到最大。

程序网络结构

 

 

 

 

 

 

 

用到函数的解释 

tf.layers.conv2d()

input:指需要做卷积的输入图像,要求是一个Tensor,具有[batch,in_height,in_width,in_channels]这样的图像,具体含义是“训练时一个batch的图片数量,图片的高度,图片的宽度,图像通道数”,注意:这是一个四维的Tensor,要求类型为float32和float64之一。

卷积核的个数决定了输出的特征图的个数,也就是特征图的通道数,或者说是卷积后的输出的通道数。一般来说要设成True但是当卷积层后根由BatchNorm或者InstanceNorm层时,最好设为False,因为归一化层会归一化卷积层输出并且加上自己的bias,卷积层的(如果有)bias就是多余的了。

(2) filters: 整数,输出空间的维数(即卷积中的滤波器数).是个数字。

(3) kernel_size:滤波器的大小,如果是一个整数,则宽高相等。是个数字。

(4)strides:一个整数,或者包含了两个整数的元组/队列,表示卷积的纵向和横向的步长。如果是一个整数,则横纵步长相等。另外, strides 不等于1 和 dilation_rate 不等于1 这两种情况不能同时存在。

(5)padding:定义元素边框与元素内容之间的空间,“valid” 或者 “same”(不区分大小写)。“valid” 表示边缘不填充,"same"表示填充到过滤器可以达到图像边缘,注:在same情况下,只有在步长为1时生成的feature map才会和输入值相等。Padding:在原始照片周围打0的圈数padding规则介绍:valid情况:输出的宽高,same情况:输出的宽高和卷积核没有关系。

(6)data_format:一个字符串,可以是channels_last(默认)或channels_first,表示输入维度的顺序。channels_last对应于具有形状(batch, height, width, channels)的输入,而channels_first对应于具有形状(batch, channels, height, width)的输入.

(7)dilation_rate:2个整数的整数或元组/列表,指定用于扩张卷积的扩张率.可以是单个整数,以指定所有空间维度的相同值.目前,指定任何dilation_rate值!= 1与指定任何步幅值!= 1都不相容.

(8)activation:激活功能,将其设置为“None”以保持线性激活.

(9)use_bias:Boolean,该层是否使用偏差. 如果 use_bias  True(且提供了bias_initializer),则一个偏差向量会被加到输出中。

(10)kernel_initializer:卷积内核的初始化程序.

(11)bias_initializer:偏置向量的初始化器,如果为None,将使用默认初始值设定项.

(12)kernel_regularizer:卷积内核的可选正则化器.

(13)bias_regularizer:偏置矢量的可选正则化器.

(14)activity_regularizer:输出的可选正则化函数.

(15)kernel_constraint:由Optimizer更新后应用于内核的可选投影函数(例如,用于实现层权重的范数约束或值约束).该函数必须将未投影的变量作为输入,并且必须返回投影变量(必须具有相同的形状).在进行异步分布式培训时,使用约束是不安全的.

(16)trainable:Boolean,如果为True,还将变量添加到图集合GraphKeys.TRAINABLE_VARIABLES中(请参阅参考资料tf.Variable).

(17)name:字符串,图层的名称.

tf.layers.batch_normalization()

BN操作就是批标准化,标准化使数据都服从正态分布,加快模型的训练速度,平稳收敛,缓解DNN训练中的梯度消失问题。

关于trainable=False:如果设置trainable=False,那么这一层的BatchNormalization层就会被冻结(freeze),它的trainable weights(可训练参数)(就是gamma和beta)就不会被更新。

Lrelu:激活函数一般情况下,卷积之后都要加一个激活函数的,目的是增强模型的泛化能力和表达能力。

tf.concat

用来拼接张量的函数;功能是将输入参数中的tensor1, tensor2, tensor3,...进行拼接。

tf.concat连接多个通道作为下一个网络层的输入。

tf.nn.relu()用法总结

ReLU函数是常用的 神经网络激活函数之一。relu称为 线性整流函数(修正线性单元),用于将输入小于0的值增幅为0,输入大于0的值不变。减少神经网络的一层层计算!

tf.nn.relu(features, name=None)

tf.nn.tanh()用法总结

双曲正切函数(也称为tanh)也是常用的神经网络激活函数之一,把值压缩到 -11 之间。

tf.nn.tanh()[别名tf.tanh]Tensorflow中的双曲正切函数提供支持。

用法:tf.nn.tanh(x, name=None) or tf.tanh(x, name=None)
x:以下任何类型的张量:float16float32doublecomplex64complex128
name(可选):操作的名称。

tf.sigmoid()用法总结

应用sigmoid函数可以将输出压缩至01的范围。计算公式为f ( x ) = 1/ 1+ e^-x

tf.sigmoid(x,name=None)参数说明:

x :类型为float16, float32, float64, complex64, or complex128tensor

name: 操作的名称(可选)

 

daguantou
关注 关注
  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
残差稠密网络:医学图像:超分】
weixin_43690932的博客
02-15 1846
仅供自己参考
15 残差网络ResNet)稠密连结网络(DenseNet)
qq_45654059的博客
08-26 986
残差神经网络 残差块 在实践中,添加层往往不会减低误差,使用批量归一化层可以提升数据的稳定性,但问题依然存在。 如果我们的理想映射为f(x),那么虚线框里需要拟合出f(x)-x,残差映射比起直接拟合出f(x)更容易优化。当f(x)及接近恒等映射时,残差映射容易捕捉恒等映射的细微变动。 class Residual(nn.Module): # 本类已保存在d2lzh_pytorch包中方便以后使用 def __init__(self, in_channels, out_channels, use_
残差网络(Residual Network):原理、结构与Python实现
weixin_37410657的博客
05-04 4427
残差网络(Residual Network,简称ResNet)是深度学习中一种重要的网络结构,它通过引入残差模块解决了深度神经网络中的梯度消失问题,实现了更深层次的网络结构残差网络在计算机视觉任务中取得了优异的性能,并被广泛应用于图像分类、目标检测、语义分割等任务。
ResNetDenseNet
学习笔记
01-25 629
ResNet(残差网络) H(x) = F(x) + x F(x) = H(x) - x 当x为最优解时(或趋近最优解时),为了保证下一层网络状态也是最优,只需令F(x)=0即可,此时,H(x) = x 来自知乎的解释 F是求和前网络映射,H是从输入到求和后的网络映射。比如把5映射到5.1,那么引入残差前是 F'(5)=5.1,引入残差后是H(5)=5.1, H(5)=F(5)+5, F(5)=0.1。这里的F'和F都表示网络 参数映射,引入残差后的映射对输出的变化更敏感。比如s输出从5.1变到5.2,映
系统学习深度学习(二十)--ResNet,DenseNet,以及残差家族
工作笔记
03-15 2万+
转自:http://blog.csdn.net/cv_family_z/article/details/50328175 CVPR2016https://github.com/KaimingHe/deep-residual-networks 这是微软方面的最新研究成果, 在第六届ImageNet年度图像识别测试中,微软研究院的计算机图像识别系统在几个类别的测试中获得第一名。 本文是解决超深度...
CBAM_keras_model_keras_densenet_残差网络_inceptionnet_注意力机制
09-11
注意力机制使用;卷积神经网络的变体keras实现
残差网络ResNet)案例分析
03-22
使用keras自定义残差网络,以MNIST数据集分类为例,为帮助读者了解残差网络的实现,仅使用简单的全连接层
经典网络结构总结–ResNet系列
01-06
为了让更深的网络也能训练出好的效果,何凯明大神提出了一个新的网络结构——ResNet。这个网络结构的想法主要源于VLAD(残差的想法来源)和Highway Network(跳跃连接的想法来源)。 ResNet Block 残差学习模块包括...
残差网络ResNet模块
04-21
ResNet网络结构模块,可直接使用,返回值一个是loss用于损失值优化,第二个softmax输出的是预测值用于测试
Resnet_resnet残差网络_
10-03
使用残差网络模型对数据分类
【论文阅读】残差注意力网络Residual Attention Network
热门推荐
码海畅游记录
06-03 2万+
论文原文 - Residual Attention Network for Image Classification 注意力 注意力一般分为两种:一种是自上而下(top-down)的有意识的注意力,称为聚焦式(focus)注意力。聚焦式注意力是指有预定目的、依赖任务的、主动有意识地聚焦于某一对象的注意力;另一种是自下而上(bottom-up)的无意识的注意力,称为基于显著性(saliency-ba...
残差网络ResNet
upupyon996deqing的博客
05-19 1万+
ResNet-34 再34层的ResNet的结构简图当中:首先是卷积层,然后是池化层,有连接线的结构就是一个残差结构再这个34层的ResNet是由一系列的残差结构组成的。最后通过一个平均池化层以及一个全脸基层也就是输出层组成的。这个网络的结构十分简单,基本就是堆叠残差结构组成的。 ResNet结构的一些亮点: 超深的网络结构(突破了1000层) 提出residual模块 使用BN加速训练 简单的堆叠卷积层和池化层行不行? 左边的图(论文当中),再堆叠在20层的网络结构的时候,模型的.
ResNet性能不够好?ResNet听了直摇头并强势反击:是你的训练策略不行吧
02-11 881
ResNet性能不够好?ResNet听了直摇头并强势反击:是你的训练策略不行吧
ResNet的反击!性能高达80.4%!无需蒸馏、无额外数据!
阿木寺的博客
10-06 829
点击下方卡片,关注“CVer”公众号AI/CV重磅干货,第一时间送达本文转载自:AIWalker论文:https://arxiv.org/abs/2110.00476code: https...
bottleneck resnet网络_DPN,ResNet,DenseNet
weixin_42498206的博客
01-09 412
ResNet,DenseNet下图中的(a)是ResNet的某个stage中的一部分。(a)的左边竖着的大矩形框表示输入输出内容,对一个输入x,分两条线走,一条线还是x本身,另一条线是x经过1*1卷积,3*3卷积,1*1卷积(这三个卷积层的组合又称作bottleneck),然后把这两条线的输出做一个element-wise addition,也就是对应值相加,就是(a)中的加号,得到的结果又变成下...
CNN模型之ResNet总结
Less is More
11-29 711
深度残差网络(Deep residual network, ResNet)是CNN图像史上里程碑的网络,其在ILSVRC和coco 2015的战绩如下表所示 ImageNet Detection: 16% better than 2nd ImageNet Location: 27% better than 2nd Coco Detection: 11% better than 2nd coco segmentation: 12% better than 2nd ResNet参考了VGG19,
深度学习残差网络
ShadyPi的IT笔记
02-21 3933
残差网络的定义、作用与原理
深度残差网络原理理解
静静地玛尼石
09-14 1万+
1.背景 (1)残差网络的辉煌历史:残差引人瞩目的成绩则是在2015年的图像识别大赛上,其在5项数据集上取得了远远领先于第二名的效果。包括了图像的分类(152层),识别,定位(高于27%),检测(11%和16%)和分割(高于12%)。 (2)为什么残差学习的效果会如此的好?与其他论文相比,深度残差学习具有更深的网络结构,此外,残差学习也是网络变深的原因?为什么网络深度如此的重要?
resnet50残差网络结构
最新发布
08-03
Resnet50是一个经典的残差网络结构,它是Resnet系列网络中的一种。Resnet50网络结构包含了50个卷积操作(conv2d)和4个残差块(Residual Block)。首先,输入经过一个卷积操作,然后通过4个残差块,最后进行全连接操作以便于进行分类任务。Resnet50网络的结构示意图如下所示:[1] [图示] 在搭建Resnet50之前,需要明确ResNet系列网络的基本结构,并复习与卷积相关的知识点,以便更好地理解网络中间输出维度的变化。搭建Resnet50网络可以帮助加深对网络结构的理解,并可以通过给网络赋予伪输入来测试各层的输出。需要注意的是,这里的搭建只是为了熟悉网络各层输出维度变化的目的,并没有使用图像数据集对该网络进行训练。[2][3]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
写文章

热门文章

  • U-Net网络 11827
  • 测试TensorFlow 1816
  • 残差网络性能机制 ResNet、DenseNet及网络结构应用 1470
  • 头盔检测数据集和论文 1208
  • 学习笔记1 182

大家在看

  • 【华为OD机试真题】155、计算数组中心位置 | 机试真题+思路参考+代码解析(C++、Java、Py、JS)
  • 人工智能在现代科技中的应用和未来发展趋势
  • 基于springboot实现教学资料管理系统项目【项目源码+论文说明】计算机毕业设计 463
  • 黑龙江省为什么要做等保? 217
  • SQL 基础入门教程 642

最新文章

  • 头盔检测数据集和论文
  • 学习笔记3 反向传播
  • 学习笔记2
2022年7篇

目录

目录

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

daguantou

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或 充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

PHP网站源码长治如何制作网站哪家好临汾关键词按天扣费推荐贵阳优化推荐邵阳百度网站优化价格宝鸡企业网站改版公司西乡网站优化报价昌都设计公司网站报价上饶网络营销公司嘉兴建网站价格福永网站推广工具价格文山网站优化排名推荐巢湖网站优化按天计费多少钱随州百度竞价包年推广价格宁德网站定制多少钱南平seo网站推广河源seo网站优化价格伊犁网站搭建九江网站优化推广推荐红河企业网站设计推荐成都如何制作网站公司信阳高端网站设计价格温州SEO按天计费价格霍邱百度seo推荐光明营销网站防城港网站建设多少钱泸州网站优化排名报价本溪网站设计哪家好包头网站开发通化网站开发松原优秀网站设计公司歼20紧急升空逼退外机英媒称团队夜以继日筹划王妃复出草木蔓发 春山在望成都发生巨响 当地回应60岁老人炒菠菜未焯水致肾病恶化男子涉嫌走私被判11年却一天牢没坐劳斯莱斯右转逼停直行车网传落水者说“没让你救”系谣言广东通报13岁男孩性侵女童不予立案贵州小伙回应在美国卖三蹦子火了淀粉肠小王子日销售额涨超10倍有个姐真把千机伞做出来了近3万元金手镯仅含足金十克呼北高速交通事故已致14人死亡杨洋拄拐现身医院国产伟哥去年销售近13亿男子给前妻转账 现任妻子起诉要回新基金只募集到26元还是员工自购男孩疑遭霸凌 家长讨说法被踢出群充个话费竟沦为间接洗钱工具新的一天从800个哈欠开始单亲妈妈陷入热恋 14岁儿子报警#春分立蛋大挑战#中国投资客涌入日本东京买房两大学生合买彩票中奖一人不认账新加坡主帅:唯一目标击败中国队月嫂回应掌掴婴儿是在赶虫子19岁小伙救下5人后溺亡 多方发声清明节放假3天调休1天张家界的山上“长”满了韩国人?开封王婆为何火了主播靠辱骂母亲走红被批捕封号代拍被何赛飞拿着魔杖追着打阿根廷将发行1万与2万面值的纸币库克现身上海为江西彩礼“减负”的“试婚人”因自嘲式简历走红的教授更新简介殡仪馆花卉高于市场价3倍还重复用网友称在豆瓣酱里吃出老鼠头315晚会后胖东来又人满为患了网友建议重庆地铁不准乘客携带菜筐特朗普谈“凯特王妃P图照”罗斯否认插足凯特王妃婚姻青海通报栏杆断裂小学生跌落住进ICU恒大被罚41.75亿到底怎么缴湖南一县政协主席疑涉刑案被控制茶百道就改标签日期致歉王树国3次鞠躬告别西交大师生张立群任西安交通大学校长杨倩无缘巴黎奥运

PHP网站源码 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化