关于神经网络,下列说法正确的是()。
A.增加网络层数,可能会增加测试集分类错误率
B.增加网络层数,一定会增加训练集分类错误率
C.减少网络层数,可能会减少测试集分类错误率
D.减少网络层数,一定会减少训练集分类错误率
A.增加网络层数,可能会增加测试集分类错误率
B.增加网络层数,一定会增加训练集分类错误率
C.减少网络层数,可能会减少测试集分类错误率
D.减少网络层数,一定会减少训练集分类错误率
A.BP神经网络的训练过程中,先进行后向传播再进行前向传播
B.通过损失函数对后向传播结果进行判定
C.通过前向传播过程对权重参数进行修正
D.训练过程中权值参数的运算量很大,一般采用梯度下降法
A.神经网络的工作原理与生物体内的神经元是完全一样的
B.训练神经网络的实质是对复杂函数求参数最优解的过程
C.增加神经网络的层数和增加每层的神经元个数的效果是一样的
D.神经网络只能进行二分类,不能进行更多种类的分类了
A.CNN和RNN都属于神经网络,因此二者的训练方式完全一致,均采用BP算法。
B.CNN和RNN都采用了权值共享机制以减少网络中的参数量。
C.在同一个网络中,CNN结构和RNN结构不能同时使用。
D.CNN适用于图像处理,而RNN适用于序列数据处理。
A.对激活函数的输出结果进行范围限定,有助于梯度平稳下降,而ReLU输出范围无限的函数会导致梯度消失问题
B.ReLU函数中所有负值均被截断为结果0,从而导致特征丢失,可适当调高学习率避免此类情况
C.RMSProp学习率调整策略引入累积梯度的概念,从而解决学习率过早趋向于0而结束训练
D.随机梯度下降(SGD)每次更新只随机取一个样本,按照固定学习率计算梯度,所以速度较快
A.CNN中的全连接层常用softmax作为激活函数。
B.CNN中的池化层用于降低特征图维数,以避免过拟合。
C.CNN由卷积层、池化层和全连接层组成,常用于处理与图像有关的问题。
D.由于卷积核的大小一般是3*3或更大,因此卷积层得到的特征图像一定比原图像小。
A.OpenVINO支持CPU、VPU、GPU等不同结构的硬件
B.OpenVINO支持CPU、VPU、GPU等不同结构的硬件同时并行推理
C.OpenVINO支持不同硬件之间动态负载均衡
D.异构插件不支持神经网络计算棒二代(NCS2)
A.通过正则化可以减少网络参数的个数,一定程度可能增加过拟合
B.利用L1或L2正则化可以使权重衰减,从而一定程度上减少过拟合
C.在神经网络训练过程中类似dropout减少神经元或相关链接权的数量
D.通过增加数据扰动的数据增强减少了神经网络的过拟合
A.可以把分类损失和边框精调的回归损失加在一起训练卷积神经网络,降低了Fast-RCNN的mAP
B.候选框的目标分类和边框精调都由卷积神经网络承担,这也提高了算法的速度
C.舍弃了R-CNN的多尺度池化,提高了算法的速度
D.Fast-RCNN将候选区域的特征获取和分类放在一个卷积神经网络