博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Convolutional Neural Networks (CNNs / ConvNets)
阅读量:7005 次
发布时间:2019-06-28

本文共 1320 字,大约阅读时间需要 4 分钟。

CNN的网络结构

最经使用CNN做regression,怎么确定网络的结构确实太头痛了,尽管已经有现有的论文里面已经又很多mode可以参考,例如AlexNet,VGGNet等等,但是和还是很难确定出一个最好的model,最近重新看Stanford的CNN的课程,发现其实已经有一部份已经讲了这个,故简单写写mark一下

1.CNN的基本结构

1.Convolutional layer : 原理很简单,就是图像处理中的filter2.non-linear Layer: Relu(常用)、sigmoid 3.Pooling layer : 一个downsampling 的过程4.Normalization Layer : 现在已经很少用了,因为加入这个效果很小,在Alexnet使用过5.Fully-Connected Layer

2.Tips

1. zero-padding 的作用

在卷积之前进行zero-padding,利用stride=1,padding_size = (filter_size - 1)/2,则卷积的过程不会改变image的大小, 并只由Pooling layer控制,这样就不用考虑图像的大小了,其次,padding 使得边缘信息不会丢失地太快

2.layer pattern

INPUT -> [[CONV -> RELU]*N -> POOL?]*M -> [FC -> RELU]*K -> FC“*N”:  重复N次layer [CONV -> RELU]“?”:  是否有该layer POOL“*M”:  重复M次layer[CONV -> RELU]*N -> POOL?]“*K”:  重复K次layer [FC -> RELU][CONV -> RELU]*N 可以增大 receptive field ,例如[CONV3 -> RELU]*3与[CONV7->RELU]*1的recoptive field 都是 7*7 ,但是多次非线性(RELU)使得模型更expressive,而且参数较[CONV7->RELU]*1少,缺点就是memory消耗

3.Layer Sizing Patterns

1.input layer: 通常input image都为2的n次方, 32 (CIFAR-10),224 (AlexNet)2.conv layers: 使用小的filter(3*3,5*5),通常在第一个conv layer才用大一点的filter,                例如AlexNet采用了(11*11)的filter_size,取stride =1,在实际中通常work better,并且与zero-padding结合,使得卷积不改变图片大小3.pool layer: 通常取max-pooling (size=2*2,stride =2)

4.model reference

1.

2.
3.VGGNet
4.GoogLeNet(ILSVRC 2014)

转载于:https://www.cnblogs.com/OnMyWay321/p/5093850.html

你可能感兴趣的文章