📜  毫升 |为什么分类中的逻辑回归?

📅  最后修改于: 2022-05-13 01:55:31.339000             🧑  作者: Mango

毫升 |为什么分类中的逻辑回归?

使用线性回归,所有预测> = 0.5可以被认为是1,其余所有< 0.5都可以被认为是0。但是问题来了,为什么不能使用它进行分类?

问题 -

假设我们将邮件分类为垃圾邮件或非垃圾邮件,我们的输出是y ,它可以是 0(垃圾邮件)或 1(非垃圾邮件)。在线性回归的情况下,h θ (x) 可以 > 1 或 < 0。虽然我们的预测应该在 0 和 1 之间,但模型将预测值超出范围,即可能 > 1 或 < 0。

所以,这就是为什么对于分类任务,Logistic/Sigmoid 回归发挥其作用。

 h_{\Theta} (x) = g (\Theta ^{T}x)  z =  \Theta ^{T}x  g(z) = \frac{1}{1+e^{-z}}

在这里,我们将θ T x插入逻辑函数,其中 θ 是权重/参数, x是输入, h θ (x)是假设函数。 g()是 sigmoid函数。

  h_{\Theta} (x) = P( y =1 | x ; \Theta )

这意味着当 x 参数化为 θ时 y = 1 概率

为了获得用于分类的离散值 0 或 1,定义了离散边界。假设函数cab 可以翻译为

  h_{\Theta} (x) \geq 0.5 \rightarrow y = 1  h_{\Theta} (x) < 0.5 \rightarrow y = 0
  {g(z) \geq 0.5} \\  {\Rightarrow \Theta ^{T}x \geq 0.5} \\  {\Rightarrow z \geq 0.5 }

决策边界是区分 y=0 和 y=1 的区域的线。这些决策边界由所考虑的假设函数产生。

用一个例子来理解决策边界——
让我们的假设函数为

  h_{\Theta}(x)= g[\Theta_{0}+ \Theta_1x_1+\Theta_2x_2+ \Theta_3x_1^2 + \Theta_4x_2^2 ]

然后决策边界看起来像

让权重或参数为 -

  \Theta=\begin{bmatrix} -1\\  0\\  0\\  1\\ 1 \end{bmatrix}

因此,它预测 y = 1 如果

  -1 + x_{1}^2 + x_{2}^2 \geqslant 0
  \Rightarrow x_{1}^2 + x_{2}^2 \geqslant 1

这就是半径= 1,原点为圆心的圆的方程。这是我们定义的假设的决策边界。