首页 > 高职专科
题目内容 (请给出正确答案)
[单选题]

在深度学习中,下列对于sigmoid函数的说法,错误的是()。

A.存在梯度爆炸的问题

B.不是关于原点对称

C.计算exp比较耗时

D.存在梯度消失的问题

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“在深度学习中,下列对于sigmoid函数的说法,错误的是()…”相关的问题
第1题
你正在训练一个RNN网络,你发现你的权重与激活值都是“NaN”,下列选项中,哪一个是导致这个问题的最有可能的原因()

A.梯度消失

B.梯度爆炸

C.eLU函数作为激活函数g(.),在计算g(z)时,z的数值过大了

D.Sigmoid函数作为激活函数g(.),在计算g(z)时,z的数值过大了

点击查看答案
第2题
以下哪一项在神经网络中引入了非线性()

A.随机梯度下降

B.卷积

C.Sigmoid激活函数

D.以上都不正确

点击查看答案
第3题
假设在一个深度学习网络中批处理梯度下降花费了太多的时间来找到一个值的参数值,该值对于成本函数J(W[1],b[1],…,W[L],b[L])来说是很小的值。以下哪些方法可以帮助找到J值较小的参数值()

A.尝试使用Adam算法

B.尝试对权重进行更好的随机初始化

C.尝试调整学习率α

D.尝试mini-batch梯度下降

点击查看答案
第4题
逻辑回归将输出概率限定在[0,1]之间。下列哪个函数起到这样的作用?()

A.LeakyReLU函数

B.tanh函数

C.Sigmoid函数

D.ReLU函数

点击查看答案
第5题
下面关于激活函数的描述中,正确的说法是哪个()?

A.激活函数需要具有线性可微的特点

B.Sigmoid函数的导数是非零的,很容易计算

C.Sigmoid函数的输出值域是对称的

D.ReLU函数主要缺点是相比于Sigmoid、Tanh函数其计算低效

点击查看答案
第6题
激活函数Sigmoid函数单调连续,输出有界,网络比较容易收敛,在一段时间内使用比较广泛,但是当网络比较深时,容易导致什么问题?()

A.梯度减少问题

B.XOR问题

C.梯度消失问题

D.过拟合问题

点击查看答案
第7题
常见的核函数主要包括()。

A.多项式核

B.高斯核

C.线性核

D.拉普拉斯核

E.Sigmoid核

点击查看答案
第8题
A于隐藏单元,tanh激活通常比sigmoid激活函数更有效,因为其输出的平均值接近于零,因此它可以更好地将数据集中到下一层。()
点击查看答案
第9题
为什么RNN网络的激活函数要选用双曲正切而不是sigmod呢()。

A.使用sigmod函数容易出现梯度消失

B.sigmod的导数形式较为复杂

C.双曲正切更简单

D.sigmoid函数实现较为复杂

点击查看答案
第10题
以下哪一项不属于ReLU系列的激活函数相对于Sigmoid和Tanh激活函数的优点?()

A.ReLU的单侧抑制提供了网络的稀疏表达能力。

B.ReLU在其训练过程中会导致神经元死亡的问题。

C.从计算的角度上,Sigmoid和Tanh激活函数均需要计算指数,复杂度高,而ReLU只需要一个阈值即可得到激活值。

点击查看答案
第11题
在海洋中,声速是______度、深度和盐度的函数。
点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改