首页 > 成人高考
题目内容 (请给出正确答案)
[多选题]

在下列选项中,关于神经网络中损失函数的描述正确的是()。

A.损失函数值越大,模型越不精准

B.当使用均方差损失函数时,网络层数越深,训练收敛速度变慢

C.损失函数值越大,模型越精准

D.当使用交叉熵损失函数时,误差越大,训练收敛速度变慢

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“在下列选项中,关于神经网络中损失函数的描述正确的是()。”相关的问题
第1题
下面关于BP神经网络的训练的说法中,正确的说法是哪个()?

A.BP神经网络的训练过程中,先进行后向传播再进行前向传播

B.通过损失函数对后向传播结果进行判定

C.通过前向传播过程对权重参数进行修正

D.训练过程中权值参数的运算量很大,一般采用梯度下降法

点击查看答案
第2题
梯度爆炸问题是指在训练深度神经网络的时候,梯度变得过大而损失函数变为无穷。在RNN中,下面哪种方法可以较好地处理梯度爆炸问题?()

A.用改良的网络结构比如LSTM和GRUs

B.梯度裁剪

C.Dropout

D.所有方法都不行

点击查看答案
第3题
在一个神经网络中,确定每一个神经元的权重和偏差是模型拟合训练样本的目标,比较有效的办法是()。

A.根据人工经验随机赋值

B.搜索所有权重和偏差的组合,直到得到最佳值

C.赋予一个初始值,然后迭代更新权重,直至损失函数取得极小

D.下一层神经元继承上一层神经元的权重和偏差

点击查看答案
第4题
下列哪一项在神经网络中引入了非线性()。

A.随机梯度下降修

B.正线性单元(ReLU)

C.卷积函数

D.以上答案都不正确

点击查看答案
第5题

假定在神经网络中的隐藏层中使用激活函数x。在特定神经元给定任意输入,得到输出「-0.0001」。x可能是以下哪一个激活函数?()

A.ReLU

B.tanh

C.SIGMOID

D.以上都不是

点击查看答案
第6题
在Photoshop中,以下关于路径的描述错误的选项是()。

A.路径可以用画笔工具进行描边

B.当对路径进行填充颜色的时候,路径不可以创立镂空的效果

C.路径调板中路径的名称可以随时修改

D.路径可以随时转化为浮动的选区

点击查看答案
第7题
以下哪一项在神经网络中引入了非线性()

A.随机梯度下降

B.卷积

C.Sigmoid激活函数

D.以上都不正确

点击查看答案
第8题
假定你在神经网络中的隐藏层中使用激活函数X。在特定神经元给定任意输入,你会得到输出-0.01。X可能是以下哪一个激活函数()。

A.ReLU

B.tanh

C.Sigmoid

D.以上都有可能

点击查看答案
第9题
神经网络中最基本的成分是()。

A.损失函数

B.学习算法

C.神经元

D.前馈网络

点击查看答案
第10题
在经典的卷积神经网络模型中,Softmax函数是跟在什么隐藏层后面的?()

A.卷积层

B.池化层

C.全连接层

D.以上都可以

点击查看答案
第11题
()用于将非线性引入神经网络。它会将值缩小到较小的范围内。

A.损失函数

B.优化函数

C.激活函数

D.目标函数

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改