我们想在大数据集上训练决策树,为了使用较少时间,我们可以()A.增加树的深度B.增加学习率(learnin grate)C.减少树的深度D.减少树的数量

题目

我们想在大数据集上训练决策树,为了使用较少时间,我们可以()

A.增加树的深度

B.增加学习率(learnin grate)

C.减少树的深度

D.减少树的数量


相似考题
参考答案和解析
正确答案:C
更多“我们想在大数据集上训练决策树,为了使用较少时间,我们可以()A.增加树的深度B.增加学习率(learnin ”相关问题
  • 第1题:

    在R中利用MASS包中的Boston数据集构建决策树的回归树模型,70%作为训练集,30%作为测试集,利用K折交叉验证和剪枝构建最优的决策树模型。进一步,根据合奏学习原理利用R中的randomForest包构建随机森林。对比结果并进行简要分析。需要上传程序代码。


    AB

  • 第2题:

    【判断题】当给定新的训练数据时,这些算法重构从先前训练数据学习得到的决策树,或从头开始学习一棵新树。

    A.Y.是

    B.N.否


    错误

  • 第3题:

    【单选题】我们想在大数据集上训练决策树,为了使用较少时间,可以()

    A.增加树的深度

    B.增加学习率

    C.减少树的深度

    D.减少树的数量


    减少树的深度

  • 第4题:

    同一个数据集上,通常使用随机森林的方法训练分类模型需要的时间比C4.5决策树更长。


    A

  • 第5题:

    17、()采用自顶向下分而治之的思想,将训练集不断分割成子数据集来不断扩展树枝,当满足一定条件时停止树的生长。

    A.决策树

    B.模型树

    C.回归树

    D.多元回归


    决策树;模型树;回归树