A.使用前向特征选择方法
B.使用后向特征排除方法
C.我们先把所有特征都使用,去训练一个模型,得到测试集上的表现.然后我们去掉一个特征,再去训练,用交叉验证看看测试集上的表现.如果表现比原来还要好,我们可以去除这个特征.
D.查看相关性表,去除相关性最高的一些特征
第1题:
LDA(线性区别分析)与PCA(主成分分析)均是降维的方法,下面描述不正确的是()
A.PCA对高维数据降维后的维数是与原始数据特征维度相关(与数据类别标签无关)
B.LDA降维后所得到维度是与数据样本的类别个数K有关(与数据本身维度无关)
C.假设原始数据一共有K个类别,那么LDA所得数据的降维维度小于或等于K−1
D.PCA和LDA均是基于监督学习的降维方法
第2题:
12、特征提取和特征选择是对整个样本集进行特征降维的方法之一。
第3题:
15、采用数据选择器实现逻辑函数时,当逻辑函数变量数多于地址端的情况下,应当()
A.采用多片数据选择器进行扩展
B.采用降维卡诺图的方法
C.对逻辑函数进行化简,减少变量
D.改用译码器实现
第4题:
70、特征降维的方法包括特征选择和特征提取。
第5题:
下列关于数据降维的说法不正确的是()
A.神经网络算法不能用于数据降维。#B.原始数据可能包含数以百/千/万计的属性,大部分情况下会有很多属性与任务不相关,是冗余的,数据降维可以提高数据质量,提升数据挖掘和机器学习的效率及精度。#C.数据降维的方法包括人工降维和自动降维,其中自动降维又分为维度规约和数据压缩 。#D.维度规约又称又称特征选择, 就是要删除冗余无用的属性;被保留的属性仍保持原有的物理意义。