首页 > 成人高考
题目内容 (请给出正确答案)
[单选题]

假设我们有一个使用ReLU激活函数(ReLU activation function)的神经网络,假如我们把ReLU激活替换为线性激活,那么这个神经网络能够模拟出同或函数(XNOR function)吗?()

A.可以

B.不好说

C.不一定

D.不能

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“假设我们有一个使用ReLU激活函数(ReLU activat…”相关的问题
第1题

假设我们有一个使用ReLU激活函数(ReLU activation function)的神经网络,假如我们把ReLU激活替换为线性激活,那么这个神经网络能够模拟出同或函数(XNOR function)吗?()

A.能

B.依情况而定

C.不一定

D.不能

点击查看答案
第2题
正在构建一个用于识别黄瓜(y=1)与西瓜(y=0)的二进制分类器。对于输出层,建议使用哪一个激活函数?()

A.ReLU

B.LeakyReLU

C.sigmoid

D.tanh

点击查看答案
第3题
题目下列关于逻辑回归中激活函数说法不正确的是()

A.常用的激活函数有Sigmoid函数、Relu函数

B.Sigmoid函数可以将负无穷到正无穷的范围转换为0~1之间

C.Sigmoid函数的表达式为

D.逻辑回归中使用激活函数的目的是减少误差

点击查看答案
第4题
以下哪一项不属于ReLU系列的激活函数相对于Sigmoid和Tanh激活函数的优点?()

A.ReLU的单侧抑制提供了网络的稀疏表达能力。

B.ReLU在其训练过程中会导致神经元死亡的问题。

C.从计算的角度上,Sigmoid和Tanh激活函数均需要计算指数,复杂度高,而ReLU只需要一个阈值即可得到激活值。

点击查看答案
第5题
下面哪些方法有助于解决深度网络的梯度消失问题()。

A.增加网络深度

B.使用Sigmoid激活函数

C.使用ReLU激活函数

D.采用Batch Normalization

点击查看答案
第6题
DNN常用的激活函数有()。

A.sigmoid

B.tanh

C.ReLU

D.以上答案都正确

点击查看答案
第7题

假定在神经网络中的隐藏层中使用激活函数x。在特定神经元给定任意输入,得到输出「-0.0001」。x可能是以下哪一个激活函数?()

A.ReLU

B.tanh

C.SIGMOID

D.以上都不是

点击查看答案
第8题
假定你在神经网络中的隐藏层中使用激活函数X。在特定神经元给定任意输入,你会得到输出-0.01。X可能是以下哪一个激活函数()。

A.ReLU

B.tanh

C.Sigmoid

D.以上都有可能

点击查看答案
第9题
训练一个RNN网络,如果权重与激活值都是NaN,下列选项中,哪一个是导致这个问题的最有可能的原因()。

A.梯度消失

B.梯度爆炸

C.ReLU函数作为激活函数g(.),在计算g(z)时,z的数值过大了

D.Sigmoid函数作为激活函数g(.),在计算g(z)时,z的数值过大了

点击查看答案
第10题
关于神经网络的相关概念,哪个说法是正确的()?

A.对激活函数的输出结果进行范围限定,有助于梯度平稳下降,而ReLU输出范围无限的函数会导致梯度消失问题

B.ReLU函数中所有负值均被截断为结果0,从而导致特征丢失,可适当调高学习率避免此类情况

C.RMSProp学习率调整策略引入累积梯度的概念,从而解决学习率过早趋向于0而结束训练

D.随机梯度下降(SGD)每次更新只随机取一个样本,按照固定学习率计算梯度,所以速度较快

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改