我们想在大数据集上训练决策树,为了使用较少时间,我们可以()
A.增加树的深度
B.增加学习率(learnin grate)
C.减少树的深度
D.减少树的数量
第1题:
在R中利用MASS包中的Boston数据集构建决策树的回归树模型,70%作为训练集,30%作为测试集,利用K折交叉验证和剪枝构建最优的决策树模型。进一步,根据合奏学习原理利用R中的randomForest包构建随机森林。对比结果并进行简要分析。需要上传程序代码。
第2题:
【判断题】当给定新的训练数据时,这些算法重构从先前训练数据学习得到的决策树,或从头开始学习一棵新树。
A.Y.是
B.N.否
第3题:
【单选题】我们想在大数据集上训练决策树,为了使用较少时间,可以()
A.增加树的深度
B.增加学习率
C.减少树的深度
D.减少树的数量
第4题:
同一个数据集上,通常使用随机森林的方法训练分类模型需要的时间比C4.5决策树更长。
第5题:
17、()采用自顶向下分而治之的思想,将训练集不断分割成子数据集来不断扩展树枝,当满足一定条件时停止树的生长。
A.决策树
B.模型树
C.回归树
D.多元回归