1:文字回答:GoogLeNet-V3中,特征图分辨率从3535降到1717,采用的是Inception(ABCDE)中的哪一个? 对应论文中哪一幅图?该结构最大的特点是什么?
答:E
运用了高效特征图分辨率下降策略:用卷积得到一半特征图,用池化得到一半特征图,从而用较少的计算量获得较多的信息,避免信息表征瓶颈。
2:文字回答:Label Smoothing 对模型训练有什么积极影响? 其中的epsilon参数作用是什么?
答:可以克服One-hot编码存在问题—过度自信进而导致过拟合的问题,标签平滑把One-hot中概率为1的那一项进行衰减,避免过度自信,衰减的那部分confidence平均分到每一个类别中,从而更加易于模型训练。
其中的epsilon参数的作用是:将q进行标签平滑变为q‘,让模型输出的p分布去逼近q’。
3:文字回答:卷积分解有哪两种形式? 分别在Inception(ABCDE)中何处使用?
答:卷积分解有如下两种方式:
(1)大卷积核分解为小卷积核堆叠,如1个55卷积分解为2个33卷积。
在Inception A中使用,如下图所示:
(2)分解为非对称卷积,如1个nn卷积分解为1n和n1卷积堆叠,但是要注意非对称卷积在后半段使用效果才好,特别使特征图分辨率在12-20之间,本文在分辨率为1717的时候使用非对称卷积。
在 Inception B使用,如下图所示:
4:文字回答:读完该论文,对你的启发点有哪些?
答:课上启发点:
1. CNN的分类是CNN视觉任务的基础:在分类上表现好的CNN,通常在其它视觉任务中表现也良好。
2. GoogleNet很多论文的最优结果均是通过大量实验得出,一般玩家难以复现。
3. 非对称卷积分解在分辨率为12-20的特征图上效果较好,且用17和71进行特征提取。
4. 在网络训练初期,辅助分类层的加入并没有加快网络收敛,在训练后期,才加快网络的收敛。
5. 移除两个辅助分类层中的一个,并不影响网络性能。
6. 标签平滑参数设置,让非标签的概率保持在10-4左右。
5:代码实现:从网上找一张图片,执行GoogLeNet-V3,观察top5输出的类别,并将输出结果截图进行打卡。
答:
6:文字:本篇论文的学习笔记及总结
详细解决方案
第五周 GoogLeNet-v3
热度:64 发布时间:2024-01-29 02:24:39.0
相关解决方案
- 08-GoogLeNet-TensorFlow 20 classification of flower identification
- GoogLeNet Inception v1
- Deep Learning回顾之LeNet、AlexNet、GoogLeNet、VGG、ResNet
- 【论文】GoogleNet Inception V1
- 【AI面试题】AlexNet、VGGNet、GoogLeNet,ResNet等网络之间的区别是什么
- alexnet、googlenet、vggnet、resnet的caffe代码
- GoogLeNet(Inception)解读(转载)
- 深度篇—— Deep Learning 经典网络 model 发展史(五) 细说 GoogleNet 结构和特点 (包括 v1, v2, v3)
- 分类网络:GoogLeNet
- Zero-Shot Learing零样本学习数据集分享(GoogleNet 提取)
- going deeper with convolution---googlenet
- CNN基础论文 精读+复现----GoogleNet InceptionV1 (一)
- Pytorch ----- 卷积神经网络 CNN --进阶部分(GoogLeNet、inception、Residual ) 附代码解读+实现~~学习笔记
- GoogleNet(Inceptionv1)论文详解
- 谈Inception V1网络结构 与 GoogLeNet
- 动手学深度学习:5.9 含并行连结的网络(GoogLeNet)
- PyTorch 入门与实践(六)卷积神经网络进阶(GoogLeNet、ResNet)
- CNN通识教育:GoogLeNet
- LARC DL笔记(三):finetune googlenet on food-101 VS baseline
- 第五周 GoogLeNet-v3
- 学习笔记--目标分类7 googlenet-V4
- GoogLeNet: Going deeper with convolutions (2014) 全文翻译
- VGG 与 GoogLeNet
- 3.10 图像分类领域经典模型-GoogLeNet(百度架构师手把手带你零基础实践深度学习原版笔记系列)