网站虚拟主持,ashx做网站,wordpress数据库插件,搜索引擎推广的方法有y是连续的则是一个回归问题#xff0c;y是离散的则是一个分类问题#xff0c;这边就开始考虑y是离散的情况。 对于这样的问题很多#xff0c;比如判断一个人是否生病#xff0c;或者判断一个邮件是否是垃圾邮件。 回归时连续型的#xff0c;一般不用在上述的分类问题中y是离散的则是一个分类问题这边就开始考虑y是离散的情况。 对于这样的问题很多比如判断一个人是否生病或者判断一个邮件是否是垃圾邮件。 回归时连续型的一般不用在上述的分类问题中因为其受噪音的影响比较大如果要把一个回归方法用到分类上的话那就是logistic回归。之所以叫其回归因为其本质上还是线性回归只是在特征到结果中加了一层函数映射。 对于这边也就是使用一个g(z)将连续的值映射到0跟1上面。 下面就是将线性带入到g(z)中。 则可以得到 对于我们考虑的问题是将连续的问题离散化下面就带来两个问题到底怎么做还有就是为什么使用这个g(z)呢。至于为什么使用这个函数的时候作者后面讲到一般线性模型的时候说明那下面就先看一看下面怎么做。 我们看这个g(z)我们会发现当g(z)趋向于1,g(z)趋向于0 这样我们就有在0到1之间下面我们就假设为y取1时候的概率。我们假设该事件服从0,1分布这边也可以是其他分布不过有点复杂则 也就是再x的条件下y只能取0跟1θ是参数。写成一般形式为 下面我们假设m的训练数据相互独立则我们下面求最大似然估计也就是求最能服从0,1分布的时候θ的值。不知道这样理解对不对 好那下面求最大似然估计对于m个训练值 那么我们也就是要求这个的最大值使用了梯度下降法。 下面跟之前一样假设只有一个训练数据。 最终得到 虽然这边的样式跟之前线性回归一样但是要注意的这里的这不是一个线性函数而是我们定义的一个logistic函数。 转载于:https://www.cnblogs.com/fengbing/archive/2013/05/18/3086284.html