这篇论文提到的模型基本结构和alexnet特别类似:
vgg: 提出的是一个网络模型,作者试验了不同参数层从11到19 (weight layers)
以16个参数层为例, 2-pooling-2-pooling-3-pooling-3-pooling-3-pooling-fc-pooling-fc-pooling-fc-sotfmax,, 数字代表卷积层的个数,每个weight layer之后都有一个ReLU.
值得关注的几点:
1.为什么小的卷积核和比大的卷积核的参数更少
比如三个3X3的卷积核的参数与一个7X7的卷积核 在输入中的reception field一样大,但是3x3的参数个数 3x(3x3xInputxOutput),而一个7x7的参数个数(7x7xInputxOutput)...用相对小但是多的卷积层好处不仅仅是参数少了,更重要的是在每个卷积层后都会有ReLU,所以网络具有更强的非线性表达能力(decision function more discrimination)