对应GradientBoostingtree算法,以下说法正确的是:()
A.当增加最小样本分裂个数,我们可以抵制过拟合
B.当增加最小样本分裂个数,会导致过拟合
C.当我们减少训练单个学习器的样本个数,我们可以降低variance
D.当我们减少训练单个学习器的样本个数,我们可以降低bias
A.当增加最小样本分裂个数,我们可以抵制过拟合
B.当增加最小样本分裂个数,会导致过拟合
C.当我们减少训练单个学习器的样本个数,我们可以降低variance
D.当我们减少训练单个学习器的样本个数,我们可以降低bias
第1题
A.我们随机抽取一些样本,在这些少量样本之上训练
B.我们可以试用在线机器学习算法
C.我们应用PCA算法降维,减少特征数
D.B和C
E.A和B
F.以上所有
第2题
A.SVM对噪声(如来自其他分部的噪声样本)具备鲁棒性
B.在adaboost算法中,所有被分错样本的权重更新比例不相同
C.boosting和bagging都是组合多个分类器投票的方法,二者都是根据单个分类器的正确率确定其权重
D.给定n个数据点,如果其中一半用于训练,一半用户测试,则训练误差和测试误差之间的差别会随着n的增加而减少的
第3题
A.增加树的深度
B.增加学习率(learnin grate)
C.减少树的深度
D.减少树的数量
第5题
A.当原假设不为真时,我们拒绝它的概率
B.当原假设不为真时,我们能拒绝它的最小概率
C.当原假设为真时,我们拒绝它的概率
D.当原假设为真时,我们能拒绝它的最小概率
第7题
A.可以集成出训练误差任意低的分类器
B.基础分类器可以任意弱
C.通过对样本进行加权达到改变训练集的效果
D.被当前基础分类器分错的样本的权重将会减小
第8题
1.一个机器学习模型,如果有较高准确率,总是说明这个分类器是好的
2.如果增加模型复杂度,那么模型的测试错误率总是会降低
3.如果增加模型复杂度,那么模型的训练错误率总是会降低
4.我们不可以使用聚类“类别id”作为一个新的特征项,然后再用监督学习分别进行学习
A.1
B.2
C.3
D.1and3