下面关于经典的卷积神经网络说法错误的是()。
A.AlexNet的网络结构和LeNet非常类似,但更深更大,并且使用了层叠的卷积层来获取特征
B.GoogLeNet的主要贡献是实现了一个bottleneck模块,能够显著地减少网络中参数的数量
C.ResNet使用了特殊的跳跃链接,大量使用了批量归一化,并在最后使用了全连接层
D.VGGNet的主要贡献是展示出网络的深度是算法优良性能的关键部分
A.AlexNet的网络结构和LeNet非常类似,但更深更大,并且使用了层叠的卷积层来获取特征
B.GoogLeNet的主要贡献是实现了一个bottleneck模块,能够显著地减少网络中参数的数量
C.ResNet使用了特殊的跳跃链接,大量使用了批量归一化,并在最后使用了全连接层
D.VGGNet的主要贡献是展示出网络的深度是算法优良性能的关键部分
A.递归神经网络不允许网络中出现环形结构
B.减少神经网络层数,可能会降低测试集分类错误率
C.循环神经网络适合处理序列数据
D.卷积神经网络可以应用于图像分类
A.CNN和RNN都属于神经网络,因此二者的训练方式完全一致,均采用BP算法。
B.CNN和RNN都采用了权值共享机制以减少网络中的参数量。
C.在同一个网络中,CNN结构和RNN结构不能同时使用。
D.CNN适用于图像处理,而RNN适用于序列数据处理。
A.CNN中的全连接层常用softmax作为激活函数。
B.CNN中的池化层用于降低特征图维数,以避免过拟合。
C.CNN由卷积层、池化层和全连接层组成,常用于处理与图像有关的问题。
D.由于卷积核的大小一般是3*3或更大,因此卷积层得到的特征图像一定比原图像小。
A.可以把分类损失和边框精调的回归损失加在一起训练卷积神经网络,降低了Fast-RCNN的mAP
B.候选框的目标分类和边框精调都由卷积神经网络承担,这也提高了算法的速度
C.舍弃了R-CNN的多尺度池化,提高了算法的速度
D.Fast-RCNN将候选区域的特征获取和分类放在一个卷积神经网络
A.非监督学习的样本数据是要求带标签的
B.监督学习和非监督学习的区别在于是否要求样本数据带标签
C.强化学习以输入数据作为对模型的反馈
D.卷积神经网络一般用于图像处理等局部特征相关的数据
A.同样模式的内容(如鸟嘴)在图像不同位置可能出现
B.池化之后的图像主体内容基本不变
C.不同种类鸟的相同部位(如鸟嘴)形状相似
D.池化作用能使不同种类鸟变得相似
A.循环神经网络
B.全连接神经网络
C.受限波尔兹曼机
D.卷积神经网络
A.卷积神经网络主要用于目标识别、图像分割等方面
B.循环神经网络主要用于处理序列数据
C.长短时记忆神经网络主要用于处理序列数据
D.长短时记忆神经网络是和循环神经网络完全不同的一种新型神经网络