题目内容
(请给出正确答案)
[多选题]
为什么RNN网络的激活函数要选用双曲正切而不是sigmod呢()。
A.使用sigmod函数容易出现梯度消失
B.sigmod的导数形式较为复杂
C.双曲正切更简单
D.sigmoid函数实现较为复杂
查看答案
如果结果不匹配,请 联系老师 获取答案
A.使用sigmod函数容易出现梯度消失
B.sigmod的导数形式较为复杂
C.双曲正切更简单
D.sigmoid函数实现较为复杂
A.梯度消失
B.梯度爆炸
C.eLU函数作为激活函数g(.),在计算g(z)时,z的数值过大了
D.Sigmoid函数作为激活函数g(.),在计算g(z)时,z的数值过大了
A.它包括线弹性材料模型、正切型材料模型、双曲正切型材料模型、三次非线性材料模型和更为一般的非线性缓冲材料模型
B.正切型材料模型属于线性缓冲材料模型
C.双曲正切型材料模型属于非线性缓冲材料模型
D.弹性材料模型属于线性缓冲材料模型;
A.ReLU的单侧抑制提供了网络的稀疏表达能力。
B.ReLU在其训练过程中会导致神经元死亡的问题。
C.从计算的角度上,Sigmoid和Tanh激活函数均需要计算指数,复杂度高,而ReLU只需要一个阈值即可得到激活值。
A.CNN和RNN都属于神经网络,因此二者的训练方式完全一致,均采用BP算法。
B.CNN和RNN都采用了权值共享机制以减少网络中的参数量。
C.在同一个网络中,CNN结构和RNN结构不能同时使用。
D.CNN适用于图像处理,而RNN适用于序列数据处理。
A.梯度减少问题
B.XOR问题
C.梯度消失问题
D.过拟合问题
A.因为它可以被用做监督学习
B.严格意义上它比卷积神经网络(CNN)效果更好
C.它比较适合用于当输入/输出是一个序列的时候(例如.一个单词序列)
D.RNNs代表递归过程.想法->编码->实验->想法->…