首页 > 自考
题目内容 (请给出正确答案)
[单选题]

以下有关随机森林算法的说法不正确的是()。

A.随机森林算法的分类精度与所含决策树的数量没有太大关系

B.随机森林算法对异常值和缺失值不敏感储

C.随机森林算法完全不需要考虑过拟合问题

D.决策树之间相关系数越低、每棵决策树分类精度越高的随机森林模型的分类效果越好

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“以下有关随机森林算法的说法不正确的是()。”相关的问题
第1题
以下算法中属于聚类算法的是()。

A.KNN算法

B.逻辑回归

C.随机森林

D.Kmeans

点击查看答案
第2题
以下关于随机森林算法的描述中错误的是()。

A.可以处理高维度的属性,并且不用做特征选择

B.随机森林的预测能力不受多重共线性影响

C.也擅长处理小数据集和低维数据集的分类问题

D.能应对正负样本不平衡问题

点击查看答案
第3题
某单位运用随机森林算法思想建立抢修热点模型。该模型主要预测下期台区工单数量,构建抢修热点。以下模型算法构建步骤中合理的顺序是:()。

A.将历史数据进行随机自助法重抽样,生成N个训练样本集

B.将N个训练样本集分别做决策树,生成N棵决策树

C.将N棵决策树随机构成随机森林

D.未来根据预测样本气候环境、设备属性、设备工况进行随机森林决策投票,得出针对该预测样本最优的决策树进行运算,并计算出最终结果。

点击查看答案
第4题
关于bagging下列说法错误的是:()。

A.各基分类器之间有较强依赖,不可以进行并行训练

B.最著名的算法之一是基于决策树基分类器的随机森林

C.当训练样本数量较少时,子集之间可能有重叠

D.为了让基分类器之间互相独立,需要将训练集分为若干子集

点击查看答案
第5题
下列关于随机森林和Adaboost说法不正确的是()。

A.和Adaboost相比,随机森林对错误和离群点更鲁棒

B.随机森林准确率不依赖于个体分类器的实例和他们之间的依赖性

C.随机森林对每次划分所考虑的属性数很偏感

D.Adaboost初始时每个训练元组被赋予相等的权重

点击查看答案
第6题
随机森林算法是一种典型的Stacking算法。()
点击查看答案
第7题
随机森林算法的分类精度不会随着决策树数量的增加而提高,通常300~500棵决策树的组合是适宜的()
点击查看答案
第8题
以下关于集成学习的说法正确的是:()。

A.随机森林是减少模型的方差,而GBDT是减少模型的偏差

B.组成随机森林的树可以并行生成,而GBDT是串行生成

C.随机森林的结果是多数表决表决的,而GBDT则是多棵树累加之和

点击查看答案
第9题
在区块链的领域里,()是被提到最多的概念之一,很多人第一次听到这个概念也是因为区块链。

A.随机森林算法

B.哈希算法

C.遗传算法

D.朴素贝叶斯算法

点击查看答案
第10题
基于Boosting的集成学习代表算法有()。

A.Adaboost

B.GBDT

C.XGBOOST

D.随机森林

点击查看答案
第11题
基于Bagging的集成学习代表算法有()。

A.Adaboost

B.GBDT

C.XGBOOST

D.随机森林

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改