对于一个分类任务,如果开始时神经网络的权重不是随机赋值的,而是都设成0,则下列叙述正确的是()。
A.没有问题,神经网络会正常开始训练
B.神经网络可以训练,但是所有的神经元最后都会变成识别同样的东西
C.神经网络不会开始训练,因为没有梯度改变
D.以上选项都不对
A.没有问题,神经网络会正常开始训练
B.神经网络可以训练,但是所有的神经元最后都会变成识别同样的东西
C.神经网络不会开始训练,因为没有梯度改变
D.以上选项都不对
A.随机赋值,祈祷他们是正确的
B.搜索所有权重和偏差的组合,直到得到最佳值
C.赋予一个初始值,通过检查跟最佳值的差值,然后迭代更新权重
D.以上说法都不正确
A.将数据分组部署在不同GPU上进行训练能提高深度神经网络的训练速度。
B.TensorFlow使用GPU训练好的模型,在执行推断任务时,也必须在GPU上运行。
C.将模型中的浮点数精度降低,例如使用float16代替float32,可以压缩训练好的模型的大小。
D.GPU所配置的显存的大小,对于在该GPU上训练的深度神经网络的复杂度、训练数据的批次规模等,都是一个无法忽视的影响因素
A.可以把分类损失和边框精调的回归损失加在一起训练卷积神经网络,降低了Fast-RCNN的mAP
B.候选框的目标分类和边框精调都由卷积神经网络承担,这也提高了算法的速度
C.舍弃了R-CNN的多尺度池化,提高了算法的速度
D.Fast-RCNN将候选区域的特征获取和分类放在一个卷积神经网络
A.标准BP算法每次仅针对一个训练样例更新连接权和阈值
B.BP神经网络经常遭遇过拟合
C.早停策略可用来缓解BP网络的过拟合问题
D.晚停策略可用来缓解BP网络的欠拟合问题