在其他条件不变的前提下,以下哪种做法容易引起机器学习中的过拟合问题?A.增加训练集量B.减少神经网络隐藏层节点数C.删除稀疏的特征D.SVM算法中使用高斯核/RBF核代替线性核

题目

在其他条件不变的前提下,以下哪种做法容易引起机器学习中的过拟合问题?

A.增加训练集量

B.减少神经网络隐藏层节点数

C.删除稀疏的特征

D.SVM算法中使用高斯核/RBF核代替线性核


相似考题
更多“在其他条件不变的前提下,以下哪种做法容易引起机器学习中的过拟合问题?A.增加训练集量B.减少神经 ”相关问题
  • 第1题:

    在机器学习中,如果数据较少,同时采用的模型较复杂,得到的模型在给定的训练集上误差非常小,接近于0,但是在训练集之外的数据上预测效果很差,这种现象称为()。

    A.欠拟合

    B.过拟合

    C.损失函数

    D.经验风险


    D

  • 第2题:

    在神经网络训练中,有关学习率调整说法错误的是?

    A.学习率设置不当会引起神经网络过拟合。

    B.学习率可以根据损失函数(代价函数)减少的快慢动态调整。

    C.学习率太小会使神经网络的训练迅速达到极小值。

    D.固定学习率设置太大可能会使神经网络训练震荡不收敛。


    学习率设置不当会引起神经网络过拟合。;学习率太小会使神经网络的训练迅速达到极小值。

  • 第3题:

    7、减少神经网络过拟合的说法,以下哪些是错误的?

    A.通过正则化可以减少网络参数的个数,一定程度可能增加过拟合

    B.利用L1或L2正则化可以使权重衰减,从而一定程度上减少过拟合

    C.在神经网络训练过程中类似dropout减少神经元或相关链接权的数量

    D.通过增加数据扰动的数据增强减少了神经网络的过拟合


    通过正则化可以减少网络参数的取值或个数,一定程度可能减少过拟合;利用L1或L2正则化可以使权重衰减,从而一定程度上减少过拟合;在神经网络训练过程中类似dropout减少神经元或相关链接权的数量

  • 第4题:

    4、当网络初步训练完成,且在训练集上表现良好,但是在测试集上表现不佳,首先应采取以下哪种措施?

    A.这是高偏差或者欠拟合现象,首先应该增加数据量或者进行数据增广

    B.这是高方差或者过拟合现象,首先应该增加数据量或者进行数据增广

    C.这是高偏差或者欠拟合现象,首先应该更换网络架构

    D.这是高方差或者过拟合现象,首先应该更换网络架构


    错误

  • 第5题:

    以下属于机器学习中用来防止过拟合的方法有哪些

    A.增加训练数据

    B.权值衰减

    C.Dropout

    D.大幅度减少网络层数


    监督式学习?非监督式学习?半监督式学习?强化学习