在其他条件不变的前提下,以下哪种做法容易引起机器学习中的过拟合问题( )A.增加训练集量B.减少神经网络隐藏层节点数C.删除稀疏的特征SD.SVM算法中使用高斯核/RBF核代替线性核

题目
在其他条件不变的前提下,以下哪种做法容易引起机器学习中的过拟合问题( )

A.增加训练集量

B.减少神经网络隐藏层节点数

C.删除稀疏的特征S

D.SVM算法中使用高斯核/RBF核代替线性核


相似考题
更多“在其他条件不变的前提下,以下哪种做法容易引起机器学习中的过拟合问题( ) ”相关问题
  • 第1题:

    在机器学习中,如果数据较少,同时采用的模型较复杂,得到的模型在给定的训练集上误差非常小,接近于0,但是在训练集之外的数据上预测效果很差,这种现象称为()。

    A.欠拟合

    B.过拟合

    C.损失函数

    D.经验风险


    D

  • 第2题:

    9、“过拟合”只在监督学习中出现,在非监督学习中,没有“过拟合”。


    错误

  • 第3题:

    14、卷积神经网络的一个特点是“参数共享”。下面关于“参数共享”的哪种说法是正确的?

    A.如果参数较多,则容易导致过拟合。而减少参数有助于避免过拟合

    B.参数共享的优势是通过一个任务上学习到的参数可以直接应用到另外一个任务上

    C.可以允许一个特征检测器在整个输入图像的不同位置使用,即可以把参数看成是卷积提取特征的方式,该方式与位置无关

    D.参数越多,才能避免过拟合,减少参数容易导致过拟合


    AD

  • 第4题:

    正则化方法是一种通过引入额外的新信息来解决机器学习中过拟合问题的方法。


    正确

  • 第5题:

    以下属于机器学习中用来防止过拟合的方法有哪些

    A.增加训练数据

    B.权值衰减

    C.Dropout

    D.大幅度减少网络层数


    监督式学习?非监督式学习?半监督式学习?强化学习