8、对随机森林算法的说法正确的有
A.训练可以高度并行化,对于大数据时代的大样本训练速度有优势
B.由于采用了随机采样,训练出的模型的方差小,泛化能力强
C.对部分特征缺失很敏感
D.在某些噪音比较大的样本集上,容易陷入过拟合
第1题:
对于随机森林和GradientBoostingTrees,下面说法正确的是()
1.在随机森林的单个树中,树和树之间是有依赖的,而GradientBoostingTrees中的单个树之间是没有依赖的.
2.这两个模型都使用随机特征子集,来生成许多单个的树
3.我们可以并行地生成GradientBoostingTrees单个树,因为它们之间是没有依赖的,GradientBoostingTrees训练模型的表现总是比随机森林好
A.2
B.1and2
C.1,3and4
D.2and4
第2题:
下列说法正确的是( )。
A.样本均值和样本方差是样本统计量
B.样本均值和样本方差是参数
C.样本统计量是随机变量
D.总体参数是一个未知的常数
第3题:
A.样本的方差
B. 样本均值
C. 样本均值的方差
D. 样本均值的均值
第4题:
A.对缺失数据不太敏感
B.分类效果不稳定
C.先验模型可能导致结果不佳
D.不适合增量式训练
第5题:
A在随机森林的单个树中,树和树之间是有依赖的,而GradientBoostingTrees中的单个树之间是没有依赖的.
B这两个模型都使用随机特征子集,来生成许多单个的树.
C我们可以并行地生成GradientBoostingTrees单个树,因为它们之间是没有依赖的,GradientBoostingTrees训练模型的表现总是比随机森林好
第6题:
用机械化采样器在静止煤采样,子样在火车车厢的布置可按 ( )
A.三点斜线法
B.五点斜线循环法
C.随机采样法
D.连续采样法和随机采样法
第7题:
第8题:
第9题:
第10题:
第11题:
在相同样本量下,有放回简单随机抽样比不放回的估计量方差要大,精度要低。
第12题:
对
错
第13题:
以下关于敏感性训练的说法正确的是( )。
A.强调的是训练的内容
B.是对感情上的训练
C.强调训练的过程
D.是对思想上的训练
E.直接训练管理者对他人的敏感性
第14题:
对应GradientBoostingtree算法,以下说法正确的是()
1.当增加最小样本分裂个数,我们可以抵制过拟合
2.当增加最小样本分裂个数,会导致过拟合
3.当我们减少训练单个学习器的样本个数,我们可以降低variance
4.当我们减少训练单个学习器的样本个数,我们可以降低bias
A.2和4
B.2和3
C.1和3
D.1和4
第15题:
A.以结构风险最小为原则
B.训练数据较小
C.对于复杂的非线性的决策边界的建模能力高度准确,并且也不太容易过拟合
D.在线性的情况下,就在原空间寻找两类样本的最优分类超平面
第16题:
A.特征数据归一化加速梯度下降优化的速度
B.特征数据归一化有可能提高模型的精度
C.线性归一化适用于特征数值分化比较大的情况
D.概率模型不需要做归一化处理
第17题:
A.当增加最小样本分裂个数,我们可以抵制过拟合
B.当增加最小样本分裂个数,会导致过拟合
C.当我们减少训练单个学习器的样本个数,我们可以降低variance
D.当我们减少训练单个学习器的样本个数,我们可以降低bias
第18题:
第19题:
第20题:
第21题:
第22题:
在计量经济研究中,产生异方差性的原因主要有()。
第23题:
对
错
第24题:
随机森林算法的分类精度不会随着决策树数量的增加而提高
随机森林算法对异常值和缺失值不敏感
随机森林算法不需要考虑过拟合问题
决策树之间相关系数越低、每棵决策树分类精度越高的随机森林模型的分类效果越好