在线性回归问题中,我们用R方来衡量拟合的好坏。在线性回归模型中增加特征值并再训练同一模型。下列()是正确的。
A.如果R方上升,则该变量是显著的
B.如果R方下降,则该变量不显著
C.单单R方不能反映变量重要性,不能就此得出正确结论
D.以上答案都不正确
A.如果R方上升,则该变量是显著的
B.如果R方下降,则该变量不显著
C.单单R方不能反映变量重要性,不能就此得出正确结论
D.以上答案都不正确
A.如果R-Squared增加,则这个特征有意义
B.如果R-Squared减小,则这个特征没有意义
C.仅看R-Squared单一变量,无法确定这个特征是否有意义。
D.以上说法都不对
A.支持向量回归是将支持向量的方法应用到回归问题中
B.支持向量回归同样可以应用核函数求解线性不可分的问题
C.同分类算法不同的是,支持向量回归要最小化一个凹函数
D.支持向量回归的解是稀疏的
(i)利用表13-1中同样的变量估计kids的一个泊松回归模型。解释y82的系数。
(ii)保持其他因素不变,黑人妇女和非黑人妇女在生育上的估计百分数差异是多少?
(iii)求σ。有过度散布和散布不足的证据吗?
(iv)计算泊松回归中的拟合值和作为kidsi和kidsi之相关系数平方的R2。并与线性回归模型中的R2相比较。
A.i..r-1
B.i..r
C.i+1..r
D.i..r+1
A.向前选择法是从模型中没有自变量开始,然后将所有自变量依次增加到模型中
B.向后剔除法是先对所有自变量拟合线性回归模型,然后依次将所有自变量剔除模型
C.逐步回归法是将向前选择法和向后剔除法结合起来,但不能保证得到的回归模型一定就显著
D.逐步回归法选择变量时,在前面步骤中增加的自变量在后面的步骤中有可能被剔除,而在前面步骤中剔除的自变量在后面的步骤中也可能重新进入到模型中