1.1卷积神经发展与进化史
AlexNet是深度学习的起点,后续各种深度学习的网络或算法,都是源于AlexNet网络。
1.2 人工智能三巨头 华人圈名人
Yoshua Bengio、Yann LeCun、Geoffrey Hinton共同获得了2018年的图灵奖。
杰弗里·埃弗里斯特·辛顿(Geoffrey Everest Hinton),计算机学家、心理学家,被称为“神经网络之父”、“深度学习鼻祖”。Hinton是机器学习领域的加拿大首席学者,是加拿大高等研究院赞助的“神经计算和自适应感知”项目的领导者,是盖茨比计算神经科学中心的创始人,目前担任多伦多大学计算机科学系教授。2013年3月,谷歌收购 Hinton 的公司 DNNResearch 后,他便随即加入谷歌,直至目前一直在 Google Brain 中担任要职。
Yoshua Bengio是蒙特利尔大学(Université de Montréal)的终身教授,任教超过22年,是蒙特利尔大学机器学习研究所(MILA)的负责人,是CIFAR项目的负责人之一,负责神经计算和自适应感知器等方面,又是加拿大统计学习算法学会的主席,是ApSTAT技术的发起人与研发大牛。Bengio在蒙特利尔大学任教之前,是AT&T贝尔实验室 & MIT的机器学习博士后。
Yann LeCun,担任Facebook首席人工智能科学家和纽约大学教授,1987年至1988年,Yann LeCun是多伦多大学Geoffrey Hinton实验室的博士后研究员。
第2章 LeNet概述LeNet神经网络由上述深度学习三巨头之一的Yan LeCun提出。
如果说Hinton是深度学习之父,那么Yan LeCun就是卷积神经网络 (CNN,Convolutional Neural Networks)之父。
LeNet主要用它来进行手写字符的识别与分类,并在美国的银行中投入了使用。
LeNet的实现确立了CNN的结构,现在神经网络中的许多内容在LeNet的网络结构中都能看到,例如卷积层,Pooling层,ReLU层。
虽然LeNet早在20世纪90年代就已经提出了,但由于当时缺乏大规模的训练数据,计算机硬件的性能也较低,因此LeNet神经网络在处理复杂问题时效果并不理想。
虽然LeNet网络结构比较简单,但是刚好适合神经网络的入门学习。
第3章 LeNet-5网络结构分析LeNet-5共有7层,不包含输入,每层都包含可训练参数;每个层有多个Feature Map,每个FeatureMap通过一种卷积滤波器提取输入的一种特征,然后每个FeatureMap有多个神经元,最后进行10分类。
3.1 网络结构描述-垂直法
3.2 网络结构描述-厚度法
3.3 分层解读
(0)输入层:
- 32 * 32 * 1
(1)C1层(卷积层1):28×28 * 6
- 卷积核尺寸:5 * 5
- 步长:1
- 特征图尺寸:28 * 28
- 卷积核个数:6
- 参数个数:(5 * 5 1) * 6
- 计算量:(5 * 5 1) * (28 * 28 )* 6
(2)降采样1:14 * 14 * 6
- 类型:平均
- 降采样输出:14 * 14 * 6
- 降低比例:14/28 = 1/2
(3)C2层(卷积层1):10×10 * 16
- 卷积核尺寸:5 * 5
- 步长:1
- 特征图尺寸:10 * 10
- 卷积核个数:16
- 参数个数:(5 * 5 1) * 16
- 计算量:(5 * 5 1) * (10* 10)* 6
(4)降采样2
- 类型:平均
- 降采样输出:5 * 5 * 16
- 降低比例: 5/10 = 1/2
(5)全连接1:
- 输入:5 * 5 * 16 = 160
- 神经元:120
- 输出:120
- 激活函数 :无
(6)全连2:
- 输入:160
- 神经元:84
- 输出:84
- 激活函数 :无
(7)全连接3
- 输入:86
- 神经元:10
- 输出:10
- 激活函数 :softmax
3.4 分析结果示意
————————————————
感谢大家的支持和喜欢,小编会每天分享更多Python学习的干货知识给大家,所以大家别忘了关注小编哦。
版权声明:本文为CSDN博主「文火冰糖的硅基工坊」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/HiWangWenBing/article/details/120893764
,