A.自左而右生成的
B.自下而上生成的
C.自上而下生成的
D.自右而左生成的
第1题:
46、决策树法属于风险型决策方法,决策树一般由决策点、机会点、方案枝、概率枝等组成。
第2题:
3、关于决策树,以下说法中错误的是?
A.决策树不要求样本集的各个维度的特征具有同质性
B.一般无法用基于距离的指标来衡量样本集划分结果的紧致性
C.一般不采用熵的概念来度量每个子样本集的纯度
D.决策树是有监督学习方法
第3题:
下述关于随机森林和GBDT算法的说法,正确的有()。
A.GBDT算法采用了Boosting技术,通过迭代更新样本的权重,串行生成序列的决策树集合
B.随机森林的基学习器采用装袋法,多个基学习器可以并行执行
C.随机森林的准确度一般好于GBDT算法的准确度
D.随机森林和GBDT都是决策树的集成模型
第4题:
决策树中决策点和机会点上的期望值都是通过结果值与其对应概率计算所得的。
第5题:
定量风险评估的常用方法包括()
A.盈亏平衡法
B.决策树分析
C.敏感性分析
D.以上都是