线性回归和Logicistic回归的区别

为什么说Logistic回归是解决分类问题?而线性回归不能解决呢?

是因为他们的模型不同么?
线性回归: y=ax+b; y=ax(2) + bx +c

而Logistic回归则是 y =1 / 1+e

就是因为模型函数的不同?
如果是的话, 为什么Log回归的模型, 更适合解决分类

wgb - 机器学习与数据挖掘从业者

赞同来自: pj0523

先简单回答你的问题:Logistic回归适用于分类,本质上是因为其预测的变量时一个概率值(即在给定x的条件下,Y属于某一类别的概率);而线性回归中的Y一般表示的就是一个真实的随机变量,比如身高等。   再做一些扩展: 线性回归属于一般线性模型(最小二乘回归),Logistic回归属于广义线性模型(其他常见的广义线性模型还有Possion回归,Probit回归等)。因此,两者确实是有一定联系的,简单说就是广义线性模型是一般线性模型的推广。 广义线性模型(Generalized Linear Model,GLM)是普通最小二乘回归(OLS)的推广。在普通最小二乘回归中,通常假设被解释变量Y是连续的且服从正态分布,被解释变量Y的期望(条件期望)是解释变量X的线性函数。广义线性模型模型则放宽了这些假设,首先被解释变量Y可以是正整数或分类数据,其分布是指数分布族;其次相应变量期望值的函数(连接函数)与预测变量间是线性的。因此,进行GLM建模时,需要指定分布类型和连接函数。 Logistic回归可以看做是指定分布为二项分布,连接函数为Sigmod函数的广义线性模型!

Robin_TY - PhD@CSU,研究方向:计算机视觉,模式识别

赞同来自: pj0523

补充一下,你可能被“回归”这个字眼迷惑了。一般情况下,“回归”不用在分类上,因为回归是连续型模型。但是logistic回归确是实实在在的分类器,可用于分类,其本质是线性回归,只是在特征到结果的映射中加入了一层函数映射,即sigmoid函数,将连续值映射到(0,1)上。

Vickey

赞同来自:

谢谢各位大神的指点!!!!!!

要回复问题请先登录注册