首页 > 高职专科
题目内容 (请给出正确答案)
[单选题]

题目在梯度下降算法中,关于步长的说法,下列说法正确的是()

A.步长越大越好

B.步长越小越好

C.步长大小无所谓

D.步长需要根据实际训练的过程进行动态调

答案
收藏

D、步长需要根据实际训练的过程进行动态调

如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“题目在梯度下降算法中,关于步长的说法,下列说法正确的是()”相关的问题
第1题
在梯度下降的情况下,以下哪个说法是错误的?()

A.如果学习率很小,则优化成本函数将花费大量时间

B.如果学习率非常高,则梯度下降可能永远不会收敛

C.学习率是使用损失函数导数和步长来计算的

D.学习率是梯度下降算法中的超参数

点击查看答案
第2题
Mllib中线性会馆算法中的参数intercept表示()。

A.要运行的迭代次数

B.梯度下降的步长

C.是否给数据加干扰特征或者偏差特征

D.Lasso和ridge的正规化参数

点击查看答案
第3题
下面梯度下降说法正确的是?()

A.随机梯度下降是梯度下降中常用的一种

B.梯度下降包括随机梯度下降和批量梯度下降

C.梯度下降算法速度快且可靠

D.随机梯度下降是深度学习算法当中常用的优化算法之一

点击查看答案
第4题
下列关于深度学习说法错误的是()

A.LSTM在一定程度上解决了传统RNN梯度消失或梯度爆炸的问题

B.CNN相比于全连接的优势之一是模型复杂度低,缓解过拟合

C.只要参数设置合理,深度学习的效果至少应优于随机算法

D.随机梯度下降法可以缓解网络训练过程中陷入鞍点的问题

点击查看答案
第5题
下列说法错误的是()。

A.当目标函数是凸函数时,梯度下降算法的解一般就是全局最优解

B.进行PCA降维时,需要计算协方差矩

C.沿负梯度的方向一定是最优的方向

D.利用拉格朗日函数能解带约束的优化问题

点击查看答案
第6题
下列关于深度学习中优化问题说法错误的是()。

A.当优化问题的数值解接近局部最优值时,随着目标函数解的梯度接近或变为零,通过最终迭代获得的数值解可能仅使目标函数局部最优,而不是全局最优

B.在深度学习优化问题中,经常遇到的是梯度爆炸或梯度消失

C.优化问题中设置的学习率决定目标函数能否收敛到局部最小值,以及何时收敛到最小值

D.一般来说,小批量随机梯度下降比随机梯度下降和梯度下降的速度慢,收敛风险较大

点击查看答案
第7题
下降迭代算法的构成需要解决哪三个基本问题()?

A.选择搜索方向

B.确定步长因子

C.给定收敛准则

D.判定收敛准则

点击查看答案
第8题

以下哪项是对早期停止(early stop)的最佳描述?()

A.训练网络直到达到误差函数中的局部最小值

B.在每次训练期后在测试数据集上模拟网络,当泛化误差开始增加时停止训练

C.在中心化权重更新中添加一个梯度下降加速算子,以便训练更快地收敛

D.更快的方法是反向传播算法

点击查看答案
第9题
当数据过大以至于无法在RAM中同时处理时,哪种梯度下降方法更加有效?()

A.随机梯度下降法(Stochastic Gradient Descent)

B.不知道

C.整批梯度下降法(FulIBatch Gradient Descent)

D.都不是

点击查看答案
第10题
动量梯度下降算法是通过()和()控制梯度下降的。

A.最小值

B.指数加权平均值

C.学习率

D.标准差

点击查看答案
第11题
假设在一个深度学习网络中批处理梯度下降花费了太多的时间来找到一个值的参数值,该值对于成本函数J(W[1],b[1],…,W[L],b[L])来说是很小的值。以下哪些方法可以帮助找到J值较小的参数值()

A.尝试使用Adam算法

B.尝试对权重进行更好的随机初始化

C.尝试调整学习率α

D.尝试mini-batch梯度下降

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改