在之前我已经写了一篇关于线性回归的文章,今天给大家带来另一个重要的回归分类算法—-逻辑回归 逻辑回归考虑的数值情况不同与线性回归,根据问题中随机变量的不同种类而选择不同的分类算法
线性回归主要用于解决连续型数值的问题 逻辑回归主要用于解决离散型数值问题
那么什么样的数值是连续型?什么是离散型? 首先我们要知道随机变量分为离散型和连续型,然后我们给出其定义:
如果随机变量X只可能取有限个或至多可列个值,则称X为离散型随机变量 能按一定次序一一列出逻辑回归算法,其值域为一个或若干个有限或无限区间逻辑回归算法,这样的随机变量称为离散型随机变量
在离散型问题中我们考虑最多的就是二元离散,也就是情况为正或者为负,我们将其记为1和0
就像下面这样
统计出数值结果后想对其进行分类,从而能够预测出一个新的x点应该是1还是0,发现很难使用一条直线去准确预测出这个分类线 最终,经过一堆数学家的努力,发现了一个非常适合离散型数值的函数
通过改变函数的参数,我们最终可以找到一个适合我们数据的一条线,然后,我们通过求出这个点的概率来预测最终结果,也就是给出一个参数x,我们通过求出y=1的概率,来预测结果
如上所示给出一个x值最终求出其y=1的概率我0.7,那么我们就可以预测出其值为1,如果求得概率为0.3的话我们就认为其值应该为0,而这里判断的概率阈值就是0.5,当概率大于等于0.5认为结果为1,否则为0
这里的阈值有一个专属名词为Decision Boundary(决策边界) 这里的决策边界就是日常中所说的分界线(学生时代的38线)
由上我们发现决策边界的选择各种各样,那么我们如何找出最适合的边界呢? 根据我们的函数,问题总结为如何找出最适合的参数Θ?
很显然,老套路,我们先算出其代价函数J(Θ),然后最小化J就行 而逻辑回归中的代价函数和之前中的线性回归的代价函数是相同的,
而和线性回归不同的就是H(Θ)的不同,而由于逻辑回归中y=1 or y=0 因此概况为
因此不同于线性回归,逻辑回归的代价函数
最后我们通过极大似然法简化代价函数
现在我们得到了代价函数,接下来我们将其最小化求出Θ
首先使用梯度下降法: 方法就是一如既往的对其求导找出下降最快的方向然后去下降 这次我们可以不用梯度下降法,我们找到其他优化算法:共轭梯度
使用共轭梯度时我们不用去手动选择下降速度α,因为共轭梯度会自动帮我们找出最优α,而且共轭梯度的速度更快,这些优点也保证了其复杂度,但是往往第三方库已经帮我们实现了这些算法,我们只需要知道如何去调用就行
上面我们拥有一个有两个参数的问题,我们知道了其代价函数J(Θ),我们想求求其最小化函数,右边是在Octave里直接调用一个函数来返回我们的代价函数,这个函数返回两个参数,jVal是代价函数,第二个参数是Θ 现在我们在下面使用无约束最小化函数来使J最小化,调用这个函数需要设置一下参数,@costFunction是我们刚刚定义的costFunction函数的指针,,optiojns中GradObj,’on’为设置梯度目标参数为打开,然后函数就可以自动实现求最优α,maxiter,100为设置最大迭代此数为100,然后initialtheta为我们设置的基础Θ值 最后这个函数会返回一组我们需要的,openTheta为最优Θ,functionVal为我们最后的代价函数值,而exitFlag值确定是否收敛,1为收敛参考文献:K码农-
限时特惠:本站每日持续更新海量设计资源,一年会员只需29.9元,全站资源免费下载
站长微信:ziyuanshu688