首页 > 大学本科
题目内容 (请给出正确答案)
[单选题]

以下哪一项不属于ReLU系列的激活函数相对于Sigmoid和Tanh激活函数的优点?()

A.ReLU的单侧抑制提供了网络的稀疏表达能力。

B.ReLU在其训练过程中会导致神经元死亡的问题。

C.从计算的角度上,Sigmoid和Tanh激活函数均需要计算指数,复杂度高,而ReLU只需要一个阈值即可得到激活值。

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“以下哪一项不属于ReLU系列的激活函数相对于Sigmoid和…”相关的问题
第1题
以下哪个是AlexNet的创新点()?

A.共享权重

B.dropout

C.Relu激活函数和重叠池化

D.双GPU训练(分组卷积)

点击查看答案
第2题
以下哪一项在神经网络中引入了非线性()

A.随机梯度下降

B.卷积

C.Sigmoid激活函数

D.以上都不正确

点击查看答案
第3题
下面关于激活函数的描述中,正确的说法是哪个()?

A.激活函数需要具有线性可微的特点

B.Sigmoid函数的导数是非零的,很容易计算

C.Sigmoid函数的输出值域是对称的

D.ReLU函数主要缺点是相比于Sigmoid、Tanh函数其计算低效

点击查看答案
第4题
为了迎合芯片计算的特点,神经网络算法进行了相应的改造,以下不属于有利于神经网络算法在芯片上运行的改变是()。

A.使用较小的卷积,并统一卷积核的大小

B.使用定点计算的神经网络代替浮点运算

C.使用ReLU作为非线性激发函数

D.增加网络的深度

点击查看答案
第5题
关于神经网络的相关概念,哪个说法是正确的()?

A.对激活函数的输出结果进行范围限定,有助于梯度平稳下降,而ReLU输出范围无限的函数会导致梯度消失问题

B.ReLU函数中所有负值均被截断为结果0,从而导致特征丢失,可适当调高学习率避免此类情况

C.RMSProp学习率调整策略引入累积梯度的概念,从而解决学习率过早趋向于0而结束训练

D.随机梯度下降(SGD)每次更新只随机取一个样本,按照固定学习率计算梯度,所以速度较快

点击查看答案
第6题
贷记卡柜台激活指持卡人凭卡和有效身份证件到中国农业银行受理网点办理贷记卡激活的业务,以下哪一项是不属于激活内容的()。

A.卡片激活

B.凭密消费方式选择

C.初始额度设置

D.初始密码设置

点击查看答案
第7题
以下不属于超参的是哪个因素()?

A.输出编码形式

B.激活函数

C.学习步长(率)和冲量引子

D.mini-batch的样本数

点击查看答案
第8题
下面哪一项不属于热致液晶()。

A.近晶相

B.向列相

C.胆甾相

D.螺距相

点击查看答案
第9题
下列哪一项不属于过饱和固溶体的沉淀过程()。

A.溶质原子的偏聚阶段

B.偏聚区有序化阶段

C.中间相阶段

D.平衡阶段

点击查看答案
第10题
逻辑回归将输出概率限定在[0,1]之间。下列哪个函数起到这样的作用?()

A.LeakyReLU函数

B.tanh函数

C.Sigmoid函数

D.ReLU函数

点击查看答案
第11题
以下哪一项不属于噪声的特征()。

A.局限性

B.分散性

C.暂时性

D.连续性

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改