AlexNet: AlexNet相比传统的CNN,主要改动包括Data Augmentation(数据增强)、Dropout方法,激活函数用ReLU代替了传统的Tanh或者Siigmoid、采用了Local Response Normalization(LRN,实际就是利用临近的像素数据做归一化,(现在基本不用了))、Overlapping Pooling(有重叠,即Pooling的步长比Pooling Kernel的对应边要小)、多GPU并行。
VGGNet: VGG很好地继承了AlexNet的特点,同时采用了更小的卷积核(3*3)堆叠来代替大的卷积核,并且网络更深(VGG-16,VGG-19)。
GoogLeNet: 网络更深,但主要创新点在于它的Inception模块,这是一个网中网(Network In Nework)的结构,即原来的节点也是一个网络。相比于前述几个网络,用了Inception之后整个网络结构的宽度和深度都可扩大,能够带来2~3倍的性能提升。
ResNet: ResNet在网络深度上有了进一步探索。但主要的创新在于残差模块(residual block),网络提出本质上还是要解决增大网络深度导致难以收敛的问题。这种借鉴了Highway Network思想的网络相当于旁边专门开个通道使得输入可以直达输出,而优化的目标由原来的拟合输出H(x)变成输出和输入的差H(x) - x,其中H(x)是某一层原始的期望映射输出,x是输入。
详细解决方案
【AI面试题】AlexNet、VGGNet、GoogLeNet,ResNet等网络之间的区别是什么
热度:67 发布时间:2023-12-14 04:09:55.0
相关解决方案
- 深度学习模型——AlexNet
- cs231n----经典卷积网络(LeNet-5、AlexNet)
- AlexNet《ImageNet Classification with Deep Convolutional Neural Networks》翻译
- AlexNet《ImageNet Classification with Deep Convolutional Neural Networks》
- PyTorch提取中间层的特征(Resnet)
- PyTorch框架下分别使用Vgg、Resnet、Densenet提取图像集特征
- CNN-经典论文阅读(2012-AlexNet)ImageNet Classification with Deep Convolutional Neural Networks
- 【深度学习】 Keras 实现Minst数据集上经典网络结构(DeepDense、LeNet、AlexNet、ZFNet)分类
- resnet 50 第五层 5_1步长改为1
- RESNET 修改第四层步长为1,得到更大的size
- ResNet、YOLOV5网络预训练模型-
- 深度学习经典网络实现与分析 —— AlexNet
- AlexNet 论文阅读总结
- 自组网训练生成模型并推理模型完整流程,代码展示LeNet -> AlexNet -> VGGNet -> InceptionNet -> ResNet优化过程
- CNN相关要点介绍(二)——ResNet(残差网络)解析
- 【经典网络学习笔记2】AlexNet-ImageNet Classification with Deep Convolution Neural Network
- 【文章创新点】经典AlexNet、VGGNet、GoogleNet等CNN网络模型创新点介绍
- 09-ResNet-TensorFlow 20 classification of flower identification
- 08-GoogLeNet-TensorFlow 20 classification of flower identification
- Inception v4、Inception-ResNet
- GoogLeNet Inception v1
- 【神经网络】VGG、ResNet、GoogleLeNet、AlexNet等常用网络代码及预训练模型
- 【读懂论文1】:AlexNet!深度学习大爆炸的奇点!
- 深度学习之经典网络架构:AlexNet
- 手写经典卷积神经网络-AlexNet
- CNN经典网络:LeNet、AlexNet、NIN、VGG
- Deep Learning回顾之LeNet、AlexNet、GoogLeNet、VGG、ResNet
- 【论文】ResNet
- 【论文】GoogleNet Inception V1
- 【论文】VGGNet