首页 > 高职专科
题目内容 (请给出正确答案)
[多选题]

为什么RNN网络的激活函数要选用双曲正切而不是sigmod呢()。

A.使用sigmod函数容易出现梯度消失

B.sigmod的导数形式较为复杂

C.双曲正切更简单

D.sigmoid函数实现较为复杂

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“为什么RNN网络的激活函数要选用双曲正切而不是sigmod呢…”相关的问题
第1题
你正在训练一个RNN网络,你发现你的权重与激活值都是“NaN”,下列选项中,哪一个是导致这个问题的最有可能的原因()

A.梯度消失

B.梯度爆炸

C.eLU函数作为激活函数g(.),在计算g(z)时,z的数值过大了

D.Sigmoid函数作为激活函数g(.),在计算g(z)时,z的数值过大了

点击查看答案
第2题
定义双曲函数如下:双曲正弦函数;双曲余弦函数双曲正切函数双曲余切函数

定义双曲函数如下:

双曲正弦函数;双曲余弦函数

双曲正切函数双曲余切函数

点击查看答案
第3题
关于缓冲材料力学模型,下列哪种说法不准确()。

A.它包括线弹性材料模型、正切型材料模型、双曲正切型材料模型、三次非线性材料模型和更为一般的非线性缓冲材料模型

B.正切型材料模型属于线性缓冲材料模型

C.双曲正切型材料模型属于非线性缓冲材料模型

D.弹性材料模型属于线性缓冲材料模型;

点击查看答案
第4题
下面()是生成对抗网络的简称。

A.RNN

B.CGAN

C.CNN

D.GAN

点击查看答案
第5题
以下哪个是AlexNet的创新点()?

A.共享权重

B.dropout

C.Relu激活函数和重叠池化

D.双GPU训练(分组卷积)

点击查看答案
第6题
以下哪一项不属于ReLU系列的激活函数相对于Sigmoid和Tanh激活函数的优点?()

A.ReLU的单侧抑制提供了网络的稀疏表达能力。

B.ReLU在其训练过程中会导致神经元死亡的问题。

C.从计算的角度上,Sigmoid和Tanh激活函数均需要计算指数,复杂度高,而ReLU只需要一个阈值即可得到激活值。

点击查看答案
第7题
关于卷积神经网络CNN与循环神经网络RNN,下面说法正确的有:()

A.CNN和RNN都属于神经网络,因此二者的训练方式完全一致,均采用BP算法。

B.CNN和RNN都采用了权值共享机制以减少网络中的参数量。

C.在同一个网络中,CNN结构和RNN结构不能同时使用。

D.CNN适用于图像处理,而RNN适用于序列数据处理。

点击查看答案
第8题
激活函数Sigmoid函数单调连续,输出有界,网络比较容易收敛,在一段时间内使用比较广泛,但是当网络比较深时,容易导致什么问题?()

A.梯度减少问题

B.XOR问题

C.梯度消失问题

D.过拟合问题

点击查看答案
第9题
为什么在上RNN(循环神经网络)可以应用机器翻译将英语翻译成法语()

A.因为它可以被用做监督学习

B.严格意义上它比卷积神经网络(CNN)效果更好

C.它比较适合用于当输入/输出是一个序列的时候(例如.一个单词序列)

D.RNNs代表递归过程.想法->编码->实验->想法->…

点击查看答案
第10题
为什么要设置曲线外轨超高?超高与哪些因素有关?为什么要限制欠超高和最大外轨超高?
点击查看答案
第11题
为什么要设置曲线外轨超高?超高与哪些因素有关?为什么要限制欠超高和最大外轨超高?

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改