对于SVM分类算法,待分样本集中的大部分样本不是支持向量,移去或者减少这些样本对分类结果没有影响。
第1题:
有两个样本点,第一个点为正样本,它的特征向量是(0,-1);第二个点为负样本,它的特征向量是(2,3),从这两个样本点组成的训练集构建一个线性SVM分类器的分类面方程是()
A.2x+y=4
B.x+2y=5
C.x+2y=3
D.2x-y=0
第2题:
训练完SVM模型后,不是支持向量的那些样本我们可以丢掉,也可以继续分类()
A.正确
B.错误
第3题:
假定你用一个线性SVM分类器求解二类分类问题,如下图所示,这些用红色圆圈起来的点表示支持向量如果移除这些圈起来的数据,决策边界(即分离超平面)是否会发生改变()
A.Yes
B.No
第4题:
第5题:
第6题:
对于大规模总体来说,总体规模越大,则( )。
第7题:
样本设计按照目的不同来分类,不包括()
第8题:
定时散射比浊分析中,预反应时间段加入的样本是()。
第9题:
对
错
第10题:
对
错
第11题:
分布愈分散,样本愈分散
分布愈分散,样本愈集中
分布愈集中,样本愈分散
分布愈集中或愈分散,样本都不受影响
第12题:
样本均值
样本中位数
样本众数
样本标准差
第13题:
以下说法中错误的是()
A.SVM对噪声(如来自其他分部的噪声样本)具备鲁棒性
B.在adaboost算法中,所有被分错样本的权重更新比例不相同
C.boosting和bagging都是组合多个分类器投票的方法,二者都是根据单个分类器的正确率确定其权重
D.给定n个数据点,如果其中一半用于训练,一半用户测试,则训练误差和测试误差之间的差别会随着n的增加而减少的
第14题:
A.以结构风险最小为原则
B.训练数据较小
C.对于复杂的非线性的决策边界的建模能力高度准确,并且也不太容易过拟合
D.在线性的情况下,就在原空间寻找两类样本的最优分类超平面
第15题:
第16题:
第17题:
Bayes法是一种在已知后验概率与类条件概率的情况下的模式分类方法,待分样本的分类结果取决于各类域中样本的全体。
第18题:
下列不是用来描述样本集中位置的统计量的是()。
第19题:
手印样本从来源上分类,可分为()、自然样本和实验样本。
第20题:
支持向量机(SVM)属于()技术。
第21题:
总体的支持率大于5%
np≥5,其中n是样本量,p是样本的支持率
n(1-p)≥5,其中n是样本量,p是样本的支持率
样本的支持率大于5%
第22题:
样本量需求越大
样本量需求越小
样本量同比例增大
对样本量需求几乎没有影响
第23题:
回归
分类
描述
验证