题目内容
(请给出正确答案)
[单选题]
为了迎合芯片计算的特点,神经网络算法进行了相应的改造,以下不属于有利于神经网络算法在芯片上运行的改变是()。
A.使用较小的卷积,并统一卷积核的大小
B.使用定点计算的神经网络代替浮点运算
C.使用ReLU作为非线性激发函数
D.增加网络的深度
查看答案
如果结果不匹配,请 联系老师 获取答案
A.使用较小的卷积,并统一卷积核的大小
B.使用定点计算的神经网络代替浮点运算
C.使用ReLU作为非线性激发函数
D.增加网络的深度
A.可以把分类损失和边框精调的回归损失加在一起训练卷积神经网络,降低了Fast-RCNN的mAP
B.候选框的目标分类和边框精调都由卷积神经网络承担,这也提高了算法的速度
C.舍弃了R-CNN的多尺度池化,提高了算法的速度
D.Fast-RCNN将候选区域的特征获取和分类放在一个卷积神经网络
A.NaiveBayes朴素贝叶斯算法
B.Pearson趋势关联分析+K-means自学习聚类
C.基于PNN的神经网络算法
D.k均值聚类算法
A.对激活函数的输出结果进行范围限定,有助于梯度平稳下降,而ReLU输出范围无限的函数会导致梯度消失问题
B.ReLU函数中所有负值均被截断为结果0,从而导致特征丢失,可适当调高学习率避免此类情况
C.RMSProp学习率调整策略引入累积梯度的概念,从而解决学习率过早趋向于0而结束训练
D.随机梯度下降(SGD)每次更新只随机取一个样本,按照固定学习率计算梯度,所以速度较快