吴恩达机器学习(六)逻辑回归
- 逻辑回归的应用对象
- 逻辑回归的假设函数、目标函数、求解
-
- 假设函数
- 目标函数
- 求解
- 例子
- 分类结果
逻辑回归的应用对象
首先,最重要的是明白一个算法的应用对象。逻辑回归主要应用于分类问题。现实中分类问题有很多,简单的二分类:邮件中的垃圾邮件和非垃圾邮件;人中的男人和女人。多分类:自动驾驶中人、车、障碍物的识别;各种阻值不同的电阻识别。
对于特征较少分类问题,逻辑回归是一种有效的算法。当特征成百上千时,请选择神经网络。
逻辑回归的假设函数、目标函数、求解
假设函数
逻辑回归的假设函数定义为:
h θ ( x ) = 1 1 + e θ T x h_theta(boldsymbol x)=frac{1}{1+e^{boldsymboltheta^Tboldsymbol x}} hθ?(x)=1+eθTx1?
上式中 θ boldsymboltheta θ和 x boldsymbol x x均为列向量。假设函数不同是逻辑回归与线性回归的第一个不同点。
上式的概率解释: h θ ( y = 1 ∣ x ; θ ) h_theta(y=1|boldsymbol x;theta) hθ?(y=1∣x;θ)在参数 θ theta θ确定的情况下,给出 x x x时, y = 1 y=1 y=1的概率。
上式的直观解释:假设已知一份邮件的特征为 x = [ 1 , 垃 圾 字 符 数 量 ] x=[1,垃圾字符数量] x=[1,垃圾字符数量],计算得到 h θ ( x ) = 0.7 h_theta(boldsymbol x)=0.7 hθ?(x)=0.7,则说明该邮件为垃圾邮件的概率为 70 % 70% 70% 。
目标函数
针对单个样本的目标函数为:
C o s t ( h θ ( x ) , y ) = { ? l o g ( h θ ( x ) ) , y = 1 , ? l o g ( 1 ? h θ ( x ) , y = 0 Cost(h_theta(boldsymbol x),y)=
{?log(hθ(x)),?log(1?hθ(x),amp;y=1,amp;y=0 Cost(hθ?(x),y)={?log(hθ?(x)),?log(1?来源:sddfsAv
声明:本站部分文章及图片转载于互联网,内容版权归原作者所有,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!