![](https://static.youtibao.com/asksite/comm/h5/images/m_q_title.png)
[单选题]
在深度学习中,下列对于sigmoid函数的说法,错误的是()。
A.存在梯度爆炸的问题
B.不是关于原点对称
C.计算exp比较耗时
D.存在梯度消失的问题
查看答案
![](https://static.youtibao.com/asksite/comm/h5/images/solist_ts.png)
A.存在梯度爆炸的问题
B.不是关于原点对称
C.计算exp比较耗时
D.存在梯度消失的问题
A.梯度消失
B.梯度爆炸
C.eLU函数作为激活函数g(.),在计算g(z)时,z的数值过大了
D.Sigmoid函数作为激活函数g(.),在计算g(z)时,z的数值过大了
A.尝试使用Adam算法
B.尝试对权重进行更好的随机初始化
C.尝试调整学习率α
D.尝试mini-batch梯度下降
A.激活函数需要具有线性可微的特点
B.Sigmoid函数的导数是非零的,很容易计算
C.Sigmoid函数的输出值域是对称的
D.ReLU函数主要缺点是相比于Sigmoid、Tanh函数其计算低效
A.梯度减少问题
B.XOR问题
C.梯度消失问题
D.过拟合问题
A.使用sigmod函数容易出现梯度消失
B.sigmod的导数形式较为复杂
C.双曲正切更简单
D.sigmoid函数实现较为复杂
A.ReLU的单侧抑制提供了网络的稀疏表达能力。
B.ReLU在其训练过程中会导致神经元死亡的问题。
C.从计算的角度上,Sigmoid和Tanh激活函数均需要计算指数,复杂度高,而ReLU只需要一个阈值即可得到激活值。