作者:ANKIT GUPTA
翻译:jqr.com
来源:机器人官网(公众号:jqr-com)
逻辑回归(Logistic Regression)大概是解决所有分类问题的算法中最常见的吧,当然,它也是人们最初染指的算法之一。
本测试旨在评估人们对逻辑回归基本认识和细微差别的了解。快来读一读这篇文章,看看自己到底有几斤几两吧。
1.判断题:Logistic regression(逻辑回归)是一种监督式机器学习算法吗?
A.是
B.否
答案:A
当然,Logistic regression是一种监督式学习算法,因为它使用真假标签进行测试。 测试模型时,监督式学习算法应具有输入变量(x)和目标变量(Y)。
2.判断题:Logistic Regression主要用于回归吗?
A.是
B.否
答案:B
逻辑回归是一种分类算法,不要因为名称将其混淆。
3.判断题:是否能用神经网络算法设计逻辑回归算法?
A是
B否
答案:A
是的,神经网络是一种通用逼近器,因此能够实现线性回归算法。
4.判断题:是否可以对三分问题应用逻辑回归算法?
A.是
B.否
答案:A
当然可以对三分问题应用逻辑回归,只需在逻辑回归中使用One Vs all方法。
5.以下哪种方法能最佳地适应逻辑回归中的数据?
A.Least Square Error
B.Maximum Likelihood
C.Jaccard distance
D.Both A and B
答案:B
Logistic Regression使用可能的最大似然估值来测试逻辑回归过程。
6.在逻辑回归输出与目标对比的情况下,以下评估指标中哪一项不适用?
A.AUC-ROC
B.准确度
C.Logloss
D.均方误差
答案:D
因为Logistic Regression是一个分类算法,所以它的输出不能是实时值,所以均方误差不能用于评估它。
7.分析逻辑回归表现的一个良好的方法是AIC,它与线性回归中的R平方相似。有关AIC,以下哪项是正确的?
A.具有最小AIC值的模型更好
B.具有最大AIC值的模型更好
C.视情况而定
D.以上都不是
答案:A
我们一般选择逻辑回归中最少的AIC作为最佳模型。有关更多信息,请参阅此来源:
www4.ncsu.edu/~shu3/Presentation/AIC.pdf
8.判断题:在训练逻辑回归之前需要对特征进行标准化。
A.是
B.否
答案:B
逻辑回归不需要标准化。功能标准化的主要目标是帮助优化技术组合。
9.使用以下哪种算法进行变量选择?
A.LASSO
B.Ridge
C.两者
D.都不是
答案:A
使用Lasso的情况下,我们采用绝对罚函数,在增加Lasso中罚值后,变量的一些系数可能变为零。
条件:10-11题
逻辑回归的以下模型:P(y = 1 | x,w)= g(w0 + w1x)其中g(z)是逻辑函数。
在上述等式中,通过改变参数w可以得到的P(y = 1 | x; w)被视为x的函数。
10.在这种情况下,p的范围是多少?
A.(0,inf)
B.(-inf,0)
C.(0,1)
D.(-inf,inf)
答案:C
对于从-∞到+∞的实数范围内的x的值。逻辑函数将给出(0,1)的输出。
11.在上面的问题中,你认为哪个函数会产生(0,1)之间的p?
A.逻辑函数
B.对数似然函数
C.两者的复合函数
D.都不会
答案:A
说明同编号10。
条件:12-13题
假设你在测试逻辑回归分类器,设函数H为
12.下图中的哪一个代表上述分类器给出的决策边界?
A.
B.
C.
D.
答案:B
选项B正确。虽然我们的式子由选项A和选项B所示的y = g(-6 + x2)表示,但是选项B才是正确的答案,因为当将x2 = 6的值放在等式中时,要使y = g (0)就意味着y = 0.5将在线上,如果你将x2的值增加到大于6,你会得到负值,所以输出将是区域y = 0。
13.如果用x2替换x1的系数,输出数字是多少?
A.
B.
C.
D.
答案:D
同12题。
14.抛掷一枚正常硬币,正面朝上的几率(odds)为多少?
A.0
B.0.5
C.1
D.都不是
答案:C
几率(odds)是事件发生不发生概率的比率,正面朝上概率为1/2和反面朝上的概率都为1/2,所以几率为1。
15.Logit函数(给定为l(x))是几率函数的对数。域x = [0,1]中logit函数的范围是多少?
A.( - ∞,∞)
B.(0,1)
C.(0,∞)
D.( - ∞,0)
答案:A
为了与目标相适应,几率函数具有将值从0到1的概率函数变换成值在0和∞之间的等效函数的优点。当我们采用几率函数的自然对数时,我们便能范围是-∞到∞的值。
16.以下哪些选项为真?
A.线性回归误差值必须正态分布,但是在Logistic回归的情况下,情况并非如此
B.逻辑回归误差值必须正态分布,但是在线性回归的情况下,情况并非如此
C.线性回归和逻辑回归误差值都必须正态分布
D.线性回归和逻辑回归误差值都不能正态分布
答案:A
只有A是真的。请参考教程 czep.net/stat/mlelr.pdf
17.对于任意值“x”,以下哪一项是正确的?
注:
Logistic(x):是任意值“x”的逻辑(Logistic)函数
Logit(x):是任意值“x”的logit函数
Logit_inv(x):是任意值“x”的逆逻辑函数
A.Logistic(x)= Logit(x)
B.Logistic(x)= Logit_inv(x)
C.Logit_inv(x)= Logit(x)
D.都不是
答案:B
请参阅此链接以获取答案:https://en.wikipedia.org/wiki/Logit
18.使用 high(infinite) regularisation时偏差会如何变化?
有散点图“a”和“b”两类(蓝色为正,红色为负)。在散点图“a”中,使用了逻辑回归(黑线是决策边界)对所有数据点进行了正确分类。
A.偏差很大
B.偏差很小
C.不确定
D.都不是
答案:A
模型变得过于简单,所以偏差会很大。
19.假设对给定数据应用了Logistic回归模型,并获得了训练精度X和测试精度Y。现在要在同一数据中添加一些新特征,以下哪些是正确的选项。
注:假设剩余参数相同。
A.训练精度提高
B.训练准确度提高或保持不变
C.测试精度降低
D.测试精度提高或保持不变
答案:A和D
将更多的特征添加到模型中会增加训练精度,因为模型必须考虑更多的数据来适应逻辑回归。但是,如果发现特征显着,则测试精度将会增加。
20.选择Logistic回归中的One-Vs-All方法中的哪个选项是真实的。
A.我们需要在n类分类问题中适合n个模型
B.我们需要适合n-1个模型来分类为n个类
C.我们需要只适合1个模型来分类为n个类
D.这些都没有
答案:A
如果存在n个类,那么n个单独的逻辑回归必须与之相适应,其中每个类的概率由剩余类的概率之和确定。
21.以下是两种不同的对数模型,分别为β0和β1。
对于两种对数模型(绿色,黑色)的β0和β1值,下列哪一项是正确的?
注: Y =β0+β1* X。其中β0是截距,β1是系数。
A.绿色的β1大于黑色
B.绿色的β1小于黑色
C.两种颜色的β1相同
D.不能说
答案:B
β0和β1:β0= 0,β1= 1为X1颜色(黑色),β0= 0,β1= -1为X4颜色(绿色)
条件:22-24题
下面是三个散点图(A,B,C,从左到右)和和手绘的逻辑回归决策边界。
22.上图中哪一个显示了决策边界过度拟合训练数据?
A.A
B.B
C.C
D.这些都没有
答案:C
由于在图3中,决策边界不平滑,表明其过度拟合数据。
23.根据可视化后的结果,能得出什么结论?
1.与第二和第三图相比,第一幅图中的训练误差最大。
2.该回归问题的最佳模型是最后(第三个)图,因为它具有最小的训练误差(零)。
3.第二个模型比第一个和第三个更强,它在不可见数据中表现最好。
4.与第一种和第二种相比,第三种模型过度拟合了。
5.所有的模型执行起来都一样,因为没有看到测试数据。
A.1和3
B.1和3
C.1,3和4
D.5
答案:C
图中趋势像是自变量X的二次趋势。更高次方的多项式(右图)可能对训练中的数据群具有超高的精度,但预计在测试数据集上将会严重失败。但是在左图中可以测试最大错误值,因为适合训练数据
24.假设上述决策边界是针对不同的正则化(regularization)值生成的。那么其中哪一个显示最大正则化?
A.A
B.B
C.C
D.都具有相同的正则化
答案:A
因为正则化意味着更多的罚值和图A所示的较简单的决策界限。
25.下图显示了三个逻辑回归模型的AUC-ROC曲线。不同的颜色表示不同超参数值的曲线。以下哪个AUC-ROC会给出最佳结果?
A.黄色
B.粉红色
C.黑色
D.都相同
答案:A
最佳分类是曲线下区域面积最大者,而黄线在曲线下面积最大。
26.如果对相同的数据进行逻辑回归,将花费更少的时间,并给出比较相似的精度(也可能不一样),怎么办?
假设在庞大的数据集上使用Logistic回归模型。可能遇到一个问题,Logistic回归需要很长时间才能训练。
A.降低学习率,减少迭代次数
B.降低学习率,增加迭代次数
C.提高学习率,增加迭代次数
D.增加学习率,减少迭代次数
答案:D
如果在训练时减少迭代次数,就能花费更少的时间获得相同的精度,但需要增加学习率。
27.以下哪个图像显示y = 1的代价函数?
以下是两类分类问题的逻辑回归(Y轴损失函数和x轴对数概率)的损失函数。
注:Y是目标类
A.A
B.B
C.两者
D.这些都没有
答案:A
A正确,因为损失函数随着对数概率的增加而减小
28.假设,下图是逻辑回归的代价函数。
现在,图中有多少个局部最小值?
A.1
B.2
C.3
D.4
答案:C
图中有三个局部最小值。
29.如下逻辑回归图显示了3种不同学习速率值的代价函数和迭代次数之间的关系(不同的颜色在不同的学习速率下显示不同的曲线)。
为了参考而保存图表后,忘记其中不同学习速率的值。现在需要曲线的倾斜率值之间的关系。以下哪一个是正确的?
注:
1.蓝色的学习率是L1
2.红色的学习率是L2
3.绿色学习率为lL3
A.L1> L2> L3
B.L1 = L2 = L3
C.L1 <L2 <L3
D.都不是
答案:C
如果学习速率低下,代价函数将缓慢下降,学习速度过高,则其代价函数会迅速下降。
30.Logistic回归分类器是否能对下列数据进行完美分类?
注:只可使用X1和X2变量,且只能使用两个二进制值(0,1)。
A.是
B.否
C.不确定
D.都不是
答案:B
逻辑回归只能形成线性决策面,而图中的例子并非线性可分的。
恭喜你!三十个关于逻辑回归的问题到这里就都答完啦,不知你答对了几个呢?
机器人网原创文章,未经授权禁止转载。详情见转载须知
本文来自机器人网,如若转载,请注明出处:https://www.jqr.com/news/005772