更多“在训练神经网络时,损失函数(loss)在最初的几个epochs时没有下降,可能的原因是?( ) ”相关问题
  • 第1题:

    7、人工神经网络训练的目的就是使得损失函数最小化


    正确

  • 第2题:

    在神经网络训练中,有关学习率调整说法错误的是?

    A.学习率设置不当会引起神经网络过拟合。

    B.学习率可以根据损失函数(代价函数)减少的快慢动态调整。

    C.学习率太小会使神经网络的训练迅速达到极小值。

    D.固定学习率设置太大可能会使神经网络训练震荡不收敛。


    学习率设置不当会引起神经网络过拟合。;学习率太小会使神经网络的训练迅速达到极小值。

  • 第3题:

    BP神经网络在训练过程中,损失函数可能比较大,但随着训练的进行,损失函数基本不变化了,这种现象说明神经网络陷入全局最优解


    局部极小值 或者 局部极小 或者 局部最优解

  • 第4题:

    8、有关BP网络的说法,哪个是错误的?

    A.在使用梯度下降时,加上冲量项会减少训练的速度,但可能会减少陷入局部极小值的可能

    B.与批量梯度下降法相比,使用小批量梯度下降法可以提高训练速度,但达到全局最优解可能需要更多的迭代次数

    C.交叉熵也可以作为回归预测问题的损失函数

    D.神经元的激活函数选择影响神经网络的训练过程和最终性能


    交叉熵也可以作为回归预测问题的损失函数

  • 第5题:

    在神经网络的训练初期,损失函数值很大且下降速度过于缓慢,大概率是因为()

    A.学习率过小

    B.学习率过大

    C.模型已经训练好了

    D.以上均不对


    4, 3, 1, 5, 2