inception v1
- 把googleNet的某一些大的卷积层换成1x1, 3x3, 5x5的小卷积,减少权重参数量
- 以上三种卷积并列,3x3池化并列
- 为什么不直接使用1x1的,而还需要3x3和5x5?是为了适应更多的尺度,不受输入图像被缩放的影响(相当于金字塔)
inception v1加强版
- 网络结构没有太大变化。
- 输入增加BN (训练收敛更快,学习更高效,可以减少dropout的使用)。具体步骤:求batch均值,求batch方差,对输入进行归一化,归一化之后再进行缩放和平移(输入x乘以伽马、加上贝塔)
inception v2
- v1加强版基础上:将5x5的卷积改成了两个串联的3x3卷积。原因:5x5卷积看起来像5x5的全连接,用两个3x3的卷积代替,第一层是卷积,第二层相当于全连接。目的:增加网络深度,并减少参数。
inception v3
- 把googleNet里一些7x7的卷积变成了1x7和7x1的两层串联.3*3的也一样,变成了1x3和3x1。目的:加速计算,增加了网络的非线性,减小过拟合的概率。
- 网络的输入从224改成了299.
inception v4
- 加上resnet的方法:从一个节点能够跳过一些节点直接连入之后的一些节点,并且残差也跟着过去一个
- 把一个先1x1再3x3那步换成了先3x3再1x1
- 论文说引入resnet不是用来提高深度,进而提高准确度的,只是用来提高速度的。
https://blog.csdn.net/u011021773/article/details/80791650