资源经验分享CNN卷积网络简介

CNN卷积网络简介

2019-11-06 | |  98 |   0

原标题:CNN卷积网络简介

原文来自:CSDN      原文链接:https://blog.csdn.net/weixin_43162240/article/details/102914708


CNN卷积网络

CNN卷积网络的结构

1.png

输入层: 输入层是32×32 RGB图像。
注:有必要计算每一层输出的图片大小。

卷积层: 卷积层的核心在于卷积核与激活函数。
卷积层最主要的作用是寻找与卷积核匹配的特征,因为与卷积核符合(卷积核权重较大的位置)的话,卷积后该区域的值也就越大,也就是说,feature map的值越大,表示该处特征越明显。
2.png
激活函数的作用是使模型具有非线性性。缺少激活函数的模型是一个线性模型,这样无法模拟任意函数,模型的各层与一个线性函数的效果是一样的。
激活函数一般选择sigmoid, tanh, relu函数。(深层网络选用relu较多,因为relu可以将部分神经元的输出置0,造成网络的稀疏性,可以缓解过拟合的问题)

3.png
4.png
pool层
池化层(也叫下采样层)一般用maxpool。
池化层的作用在于提取重要特征,忽视较小的特征(前面卷积可以通过数字大小决定与特征的符合程度),大幅降低权重参数,减小计算成本。
5.png
全连接层
全连接层(fully connected layers,FC)在整个卷积神经网络中起到“分类器”的作用。
先将上一层卷积层的输出展平,扩展成1通道的向量X,然后再对这个向量通过权重W变到Y = W*X, 然后用激活函数非线性化, 经过几个这样的全连接层后,最后一层输出为各个类别的概率.
6.png

CNN的每一层都有什么作用?

卷积层: 关注局部,参数共享,作用是检测特征。
激活层: 对卷积层经过线性运算的结果赋予非线性特征,否则深度学习的层数没有实际意义。
池化层: 提取重要特征,忽视较小的特征(前面卷积可以通过数字大小决定与特征的符合程度),大幅降低权重参数,减小计算成本。
dropout层: 训练后,神经网络的权重与训练样本太过匹配,导致对测试集的效果不好,即过拟合。dropout层是为了解决过拟合的问题。

参考资料:
[1]relu函数的意义https://blog.csdn.net/wangkun1340378/article/details/74517252
[2]maxpool的意义https://blog.csdn.net/pangjiuzala/article/details/71840947
[3]全连接层https://blog.csdn.net/weixin_41055137/article/details/81174443

免责声明:本文来自互联网新闻客户端自媒体,不代表本网的观点和立场。

合作及投稿邮箱:E-mail:editor@tusaishared.com

上一篇:ALBERT 与ELECTRA,小排量的大飞机

下一篇:Context-Aware Representations for Knowledge Base Relation Extraction论文笔记

用户评价
全部评价

热门资源

  • Python 爬虫(二)...

    所谓爬虫就是模拟客户端发送网络请求,获取网络响...

  • TensorFlow从1到2...

    原文第四篇中,我们介绍了官方的入门案例MNIST,功...

  • TensorFlow从1到2...

    “回归”这个词,既是Regression算法的名称,也代表...

  • 机器学习中的熵、...

    熵 (entropy) 这一词最初来源于热力学。1948年,克...

  • TensorFlow2.0(10...

    前面的博客中我们说过,在加载数据和预处理数据时...