此题为判断题(对,错)。
第1题:
A.纯度高的节点需要更多的信息去区分
B.信息增益可以用”1比特-熵”获得
C.如果选择一个属性具有许多归类值,那么这个信息增益是有偏差的
第2题:
120、决策树模型中应处理连续型属性数据的方法之一为:根据信息增益选择阈值进行离散化。
第3题:
在决策树学习中,关于信息增益(information gain)的说法正确的是()?
A.不纯度越小的节点,熵值越大
B.信息增益可以由熵计算得到
C.信息增益更加倾向于选择有较多取值的属性
D.信息增益更加倾向于选择有较少取值的属性
第4题:
下列关于决策树算法的论述错误的是
A.熵可用于描述信息的不确定性或混乱程度,信息的不确定性越大则熵越大,反之越小
B.条件熵H(Y|X)表示在已知特征X的条件下,类别Y的不确定性的度量
C.决策树基本思想是贪心算法,它以自顶(根节点)向下递推生成的方式构造决策树。
D.ID3算法的属性选择度量就是使用信息增益,选择最小信息增益的属性作为当前节点的测试属性。
第5题:
决策树模型中应处理连续型属性数据的方法之一为:根据信息增益选择阈值进行离散化。