cnn
原文链接: cnn
https://github.com/Coldmooon/SSD-on-Custom-Dataset
入门讲解VGG 卷积神经网络VGG16这么简单,为什么没人能说清?
https://www.sohu.com/a/241338315_787107
卷积神经网络——输入层、卷积层、激活函数、池化层、全连接层
https://blog.csdn.net/yjl9122/article/details/70198357
首先Conv指的是convolution,卷积的意思。
Conv7指的是第七个卷积层 。
SSD使用的是VGG16做特征提取,原版的VGG16包含五个卷积block和三个全连接层。但是SSD将VGG16的全连接层改成了卷积层,
Conv7在VGG16里面对应的是第二个全连接层。再解释Conv5_3。VGG每个卷积block包含2个或3个卷积层,所以Conv5的意思是第五个卷积block,Conv5_3指的是第五个卷积block里面的第三个卷积层
dropout是指在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时从网络中丢弃。注意是暂时,对于随机梯度下降来说,由于是随机丢弃,故而每一个mini-batch都在训练不同的网络。
dropout是CNN中防止过拟合提高效果的一个大杀器
输入图像是32*32*3,3是它的深度(即R、G、B),卷积层是一个5*5*3的filter(感受野),这里注意:感受野的深度必须和输入图像的深度相同。通过一个filter与输入图像的卷积可以得到一个28*28*1的特征图,上图是用了两个filter得到了两个特征图;
我们通常会使用多层卷积层来得到更深层次的特征图。如下:
关于卷积的过程图解如下:
输入图像和filter的对应位置元素相乘再求和,最后再加上b,得到特征图。如图中所示,filter w0的第一层深度和输入图像的蓝色方框中对应元素相乘再求和得到0,其他两个深度得到2,0,则有0+2+0+1=3即图中右边特征图的第一个元素3.,卷积过后输入图像的蓝色方框再滑动,stride(步长)=2,如下:
如上图,完成卷积,得到一个3*3*1的特征图;在这里还要注意一点,即zero pad项,即为图像加上一个边界,边界元素均为0.(对原输入无影响)一般有