吴恩达机器学习(六)逻辑回归

吴恩达机器学习(六)逻辑回归

  • 逻辑回归的应用对象
  • 逻辑回归的假设函数、目标函数、求解
    • 假设函数
    • 目标函数
    • 求解
  • 例子
  • 分类结果

逻辑回归的应用对象

首先,最重要的是明白一个算法的应用对象。逻辑回归主要应用于分类问题。现实中分类问题有很多,简单的二分类:邮件中的垃圾邮件和非垃圾邮件;人中的男人和女人。多分类:自动驾驶中人、车、障碍物的识别;各种阻值不同的电阻识别。
对于特征较少分类问题,逻辑回归是一种有效的算法。当特征成百上千时,请选择神经网络。

逻辑回归的假设函数、目标函数、求解

假设函数

逻辑回归的假设函数定义为:
h θ ( x ) = 1 1 + e θ T x h_theta(boldsymbol x)=frac{1}{1+e^{boldsymboltheta^Tboldsymbol x}} hθ?(x)=1+eθTx1?
上式中 θ boldsymboltheta θ x boldsymbol x x均为列向量。假设函数不同是逻辑回归与线性回归的第一个不同点。
上式的概率解释 h θ ( y = 1 ∣ x ; θ ) h_theta(y=1|boldsymbol x;theta) hθ?(y=1x;θ)在参数 θ theta θ确定的情况下,给出 x x x时, y = 1 y=1 y=1的概率。
上式的直观解释:假设已知一份邮件的特征为 x = [ 1 , 垃 圾 字 符 数 量 ] x=[1,垃圾字符数量] x=[1,],计算得到 h θ ( x ) = 0.7 h_theta(boldsymbol x)=0.7 hθ?(x)=0.7,则说明该邮件为垃圾邮件的概率为 70 % 70% 70%

目标函数

针对单个样本的目标函数为:
C o s t ( h θ ( x ) , y ) = { ? l o g ( h θ ( x ) ) , y = 1 , ? l o g ( 1 ? h θ ( x ) , y = 0 Cost(h_theta(boldsymbol x),y)=

{?log(hθ(x)),?log(1?hθ(x),amp;y=1,amp;y=0{?log(hθ(x)),amp;y=1,?log(1?hθ(x),amp;y=0 Cost(hθ?(x),y)={?log(hθ?(x)),?log(1?来源:sddfsAv

声明:本站部分文章及图片转载于互联网,内容版权归原作者所有,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!

上一篇 2019年3月22日
下一篇 2019年3月22日

相关推荐