首页 > 自考
题目内容 (请给出正确答案)
[单选题]

下列关于随机森林和Adaboost说法不正确的是()。

A.和Adaboost相比,随机森林对错误和离群点更鲁棒

B.随机森林准确率不依赖于个体分类器的实例和他们之间的依赖性

C.随机森林对每次划分所考虑的属性数很偏感

D.Adaboost初始时每个训练元组被赋予相等的权重

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“下列关于随机森林和Adaboost说法不正确的是()。”相关的问题
第1题
基于Boosting的集成学习代表算法不包含()。

A.Adaboost

B.GBDT

C.XGBOOST

D.随机森林

点击查看答案
第2题
哪些项属于集成学习?()

A.Knn

B.Adaboost

C.随机森林

D.XGBoost

点击查看答案
第3题
随机森林是在()上的一个扩展变体。

A.Boosting

B.AdaBoost

C.RF

D.Bagging

点击查看答案
第4题
基于Boosting的集成学习代表算法有()。

A.Adaboost

B.GBDT

C.XGBOOST

D.随机森林

点击查看答案
第5题
基于Bagging的集成学习代表算法有()。

A.Adaboost

B.GBDT

C.XGBOOST

D.随机森林

点击查看答案
第6题
关于bagging下列说法错误的是:()。

A.各基分类器之间有较强依赖,不可以进行并行训练

B.最著名的算法之一是基于决策树基分类器的随机森林

C.当训练样本数量较少时,子集之间可能有重叠

D.为了让基分类器之间互相独立,需要将训练集分为若干子集

点击查看答案
第7题
以下关于随机森林算法的描述中错误的是()。

A.可以处理高维度的属性,并且不用做特征选择

B.随机森林的预测能力不受多重共线性影响

C.也擅长处理小数据集和低维数据集的分类问题

D.能应对正负样本不平衡问题

点击查看答案
第8题
以下关于集成学习的说法正确的是:()。

A.随机森林是减少模型的方差,而GBDT是减少模型的偏差

B.组成随机森林的树可以并行生成,而GBDT是串行生成

C.随机森林的结果是多数表决表决的,而GBDT则是多棵树累加之和

点击查看答案
第9题
对于随机森林和GBDT,下面说法正确的是()。

A.在随机森林的单个树中,树和树之间是有依赖的,而GBDT中的单个树之间是没有依赖的

B.这两个模型都使用随机特征子集,来生成许多单个的树

C.我们可以并行地生成GBDT单个树,因为它们之间是没有依赖的

D.GBDT训练模型的表现总是比随机森林好

点击查看答案
第10题
下列关于典型调查,说法正确的有()。

A.典型调查的主要特点是调查范围小,调查单位少,灵活机动

B.典型调查不受人为因素的影响

C.选择典型代表应遵循随机原则

D.典型单位的选择应根据研究的问题和目的而定

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改