AlexNet学习笔记

1456-张同学

发表文章数:22

热门标签

, ,
首页 » Python » 正文

1.网络结构

AlexNet学习笔记

上图从左到右:

   第0层是输入层:输入大小为227×227×3大小的RGB图像

   第1层是卷积层:(1)使用96个11×11×3的卷积核,s=4,p=0,输入为上一层的输出(下同),输出数据维度为55×55×96

                              (2)Local response normalization                        

                              (3)Relu(),输出数据维度为55×55×96                           

ReLU本来是不需要对输入进行标准化,但本文发现进行局部标准化能提高性能。

                           AlexNet学习笔记

其中AlexNet学习笔记代表在feature map中(x,y)坐标处经过第i个卷积核处和ReLU激活函数的输出,这个式子的含义就是一个值和它前后的n个值做标准化。k,n,α,β是超参数,本文由验证集确定为k=2,n=5,α=10−4,β=0.75。求和发生在feature map中,相同位置(x,y)n个相邻kernel map上。其中N是卷积核的总数,符号maxmin是为了表示边缘几层的标准化方式。输出数据维度为55×55×96

 

                             (4)Max pooling,最大池化,s=2,f=3,输出数据维度是27×27×96

          

    第2层是卷积层:(1)使用256个5×5×48的卷积核,s=1,p=2,输入为上一层的输出(下同),输出数据维度为27×27×256

                               (2)Local response normalization 

                               (3)Relu(),输出数据维度为27×27×256

                               (4)Max pooling,最大池化,s=2,f=3,输出数据维度是13×13×256

 

    第3层是卷积层:(1)使用384个3×3×256的卷积核,s=1,p=1,输入为上一层的输出(下同),输出数据维度为13×13×384

                               (2)Relu(),输出数据维度为13×13×384

                                    本层无标准化,无池化

 

    第4层是卷积层:(1)使用384个3×3×192的卷积核,s=1,p=1,输入为上一层的输出(下同),输出数据维度为13×13×384

                               (2)Relu(),输出数据维度为13×13×384

                                    本层无标准化,无池化

    

    第5层是卷积层:(1)使用256个3×3×192的卷积核,s=1,p=1,输入为上一层的输出(下同),输出数据维度为13×13×256

                               (2)Relu(),输出数据维度为13×13×256

                               (3)Max pooling,最大池化,s=2,f=3,输出数据维度是6×6×256

    第6、7、8层都是全连接层,分别有4096,4096,1000个神经元

 

 

 

 

 

未经允许不得转载:作者:1456-张同学, 转载或复制请以 超链接形式 并注明出处 拜师资源博客
原文地址:《AlexNet学习笔记》 发布于2018-07-10

分享到:
赞(0) 打赏

评论 抢沙发

评论前必须登录!

  注册



长按图片转发给朋友

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏

Vieu3.3主题
专业打造轻量级个人企业风格博客主题!专注于前端开发,全站响应式布局自适应模板。

登录

忘记密码 ?

您也可以使用第三方帐号快捷登录

Q Q 登 录
微 博 登 录