当前位置: 首页 > news >正文

视频网站做板块栏目襄阳蒂凯网络网站建设小程序

视频网站做板块栏目,襄阳蒂凯网络网站建设小程序,网页微信版网址,网站建设的作用是什么意思目录 1. 梯度下降法1.1 一元线性回归1.2 多元线性回归1.3 标准方程法1.4 梯度下降法与标准方程法的优缺点 2. 相关系数与决定系数 1. 梯度下降法 1.1 一元线性回归 定义一元线性方程 y ω x b y\omega xb yωxb 则误差#xff08;残差#xff09;平方和 C ( ω , b ) … 目录 1. 梯度下降法1.1 一元线性回归1.2 多元线性回归1.3 标准方程法1.4 梯度下降法与标准方程法的优缺点 2. 相关系数与决定系数 1. 梯度下降法 1.1 一元线性回归 定义一元线性方程 y ω x b y\omega xb yωxb 则误差残差平方和 C ( ω , b ) ∑ i 1 n ( y i ^ − y i ) 2 C(\omega,b)\sum_{i1}^n(\hat{y_i}-y_i)^2 C(ω,b)i1∑n​(yi​^​−yi​)2 即 C ( ω , b ) ∑ i 1 n ( ω x i b − y i ) 2 C(\omega,b)\sum_{i1}^n(\omega x_ib-y_i)^2 C(ω,b)i1∑n​(ωxi​b−yi​)2 为方便计算常写为如下形式 C ( ω , b ) 1 2 n ∑ i 1 n ( ω x i b − y i ) 2 C(\omega,b)\frac{1}{2n}\sum_{i1}^n(\omega x_ib-y_i)^2 C(ω,b)2n1​i1∑n​(ωxi​b−yi​)2 其中 y i y_i yi​为真实值 y i ^ \hat{y_i} yi​^​为预测值。 若用一元线性方程拟合上面的数据集那么最佳的拟合直线方程需满足 C ( ω , b ) C(\omega,b) C(ω,b)最小即使得真实值到直线竖直距离的平方和最小。因此需要求解使得 C ( ω , b ) C(\omega,b) C(ω,b)最小的参数 ω \omega ω和 b b b即 min ⁡ ω , b C ( ω , b ) \min_{\omega,b}C(\omega,b) ω,bmin​C(ω,b) 梯度下降公式 ω : ω − α ∂ C ( ω , b ) ∂ ω ω − α 1 n ∑ i 1 n ( ω x i b − y i ) 2 x i \omega:\omega-\alpha \frac{\partial C(\omega,b)}{\partial \omega}\omega-\alpha \frac{1}{n}\sum_{i1}^n(\omega x_ib-y_i)^2x_i ω:ω−α∂ω∂C(ω,b)​ω−αn1​i1∑n​(ωxi​b−yi​)2xi​ b : b − α ∂ C ( ω , b ) ∂ b b − α 1 n ∑ i 1 n ( ω x i b − y i ) 2 b:b-\alpha \frac{\partial C(\omega,b)}{\partial b}b-\alpha \frac{1}{n}\sum_{i1}^n(\omega x_ib-y_i)^2 b:b−α∂b∂C(ω,b)​b−αn1​i1∑n​(ωxi​b−yi​)2 其中 α \alpha α为步长学习率 : : :表示赋值操作。 梯度下降基本步骤 初始化 ω \omega ω和 b b b常取0不断改变 ω \omega ω和 b b b直到 C ( ω , b ) C(\omega,b) C(ω,b)到达一个全局最小值或局部极小值。 下图使用梯度下降能到达局部最小值 下图使用梯度下降能到达全局最小值 下图中将 θ 1 \theta1 θ1看成 ω \omega ω J ( θ 1 ) J(\theta 1) J(θ1)看成 C ( ω , b ) C(\omega,b) C(ω,b)。则 在第一个点处 ∂ C ( ω , b ) ∂ ω \frac{\partial C(\omega,b)}{\partial \omega} ∂ω∂C(ω,b)​小于0根据梯度下降公式此时 ω \omega ω的值会增大即往代价函数最小值的方向靠近。在第三个点处 ∂ C ( ω , b ) ∂ ω \frac{\partial C(\omega,b)}{\partial \omega} ∂ω∂C(ω,b)​大于0根据梯度下降公式此时 ω \omega ω的值会减小即往代价函数最小值的方向靠近。 1.2 多元线性回归 定义多元线性方程 y ω 1 x 1 ω 2 x 2 . . . ω n x n b y\omega_1 x_1\omega_2 x_2...\omega_n x_nb yω1​x1​ω2​x2​...ωn​xn​b 误差平方和 C ( ω 1 , . . . , ω n , b ) 1 2 n ∑ i 1 n ( y ^ ( x i ) − y i ) 2 C(\omega_1,...,\omega_n,b)\frac{1}{2n}\sum_{i1}^n(\hat{y}(x^i)-y^i)^2 C(ω1​,...,ωn​,b)2n1​i1∑n​(y^​(xi)−yi)2 注 y ^ ( x i ) \hat{y}(x^i) y^​(xi)为预测值 y i y^i yi为真实值这里的 x i x^i xi表示的是第 i i i个数据包含多列属性。 由1.1可得 b : b − α 1 n ∑ i 1 n ( y ^ ( x i ) − y i ) 2 x 0 i b:b-\alpha \frac{1}{n}\sum_{i1}^n(\hat{y}(x^i)-y^i)^2x_0^i b:b−αn1​i1∑n​(y^​(xi)−yi)2x0i​ 这里 x 0 i 1 x^i_01 x0i​1以实现格式统一。 ω 1 : ω 1 − α 1 n ∑ i 1 n ( y ^ ( x i ) − y i ) 2 x 1 i \omega_1:\omega_1-\alpha \frac{1}{n}\sum_{i1}^n(\hat{y}(x^i)-y^i)^2x^i_1 ω1​:ω1​−αn1​i1∑n​(y^​(xi)−yi)2x1i​ ω 2 : ω 2 − α 1 n ∑ i 1 n ( y ^ ( x i ) − y i ) 2 x 2 i \omega_2:\omega_2-\alpha \frac{1}{n}\sum_{i1}^n(\hat{y}(x^i)-y^i)^2x^i_2 ω2​:ω2​−αn1​i1∑n​(y^​(xi)−yi)2x2i​ . . . ... ... ω n : ω n − α 1 n ∑ i 1 n ( y ^ ( x i ) − y i ) 2 x n i \omega_n:\omega_n-\alpha \frac{1}{n}\sum_{i1}^n(\hat{y}(x^i)-y^i)^2x^i_n ωn​:ωn​−αn1​i1∑n​(y^​(xi)−yi)2xni​ 改写为矢量版本 y ω T x y\omega ^Tx yωTx ω : ω − α 1 n X T ( y ^ ( x ) − y ) \omega:\omega-\alpha \frac{1}{n} X^T(\hat{y}(x)-y) ω:ω−αn1​XT(y^​(x)−y) 其中 ω \omega ω和 x x x某行数据均为列向量实际应用。 1.3 标准方程法 调用sklearn实现一元线性回归与多元线性回归的梯度下降时sklearn内部的实现并没有使用梯度下降法而是使用标准方程法。 公式推导利用最小二乘法12 上述公式推导使用到的矩阵求导公式 由推导的公式可知需要满足的条件是 ( X T X ) − 1 (X^TX)^{-1} (XTX)−1存在。在机器学习中 ( X T X ) − 1 (X^TX)^{-1} (XTX)−1不可逆的原因通常有两种一种是自变量间存在高度多重共线性例如两个变量之间成正比例如x1 为房子的面积单位是平方英尺x2为房子的面积单位是平方米而1 平方英尺0.0929 平方米那么在计算 ( X T X ) − 1 (X^TX)^{-1} (XTX)−1时可能得不到结果或者结果无效另一种则是当特征变量过多样本数 m ≤ \le ≤特征数量 n的时候也会导致 ( X T X ) − 1 (X^TX)^{-1} (XTX)−1不可逆。 ( X T X ) − 1 (X^TX)^{-1} (XTX)−1不可逆的情况很少发生如果有这种情况其解决问题的方法之一便是使用正则化以及岭回归等来求最小二乘法。 单变量情况下利用最小二乘法求解最佳参数 1.4 梯度下降法与标准方程法的优缺点 梯度下降法 优点 当特征值非常多的时候也可以很好的工作 缺点 需要选择合适的学习率需要迭代多个周期只能得到最优解的近似值 标准方程法 优点 不需要学习率不需要迭代可以得到全局最优解 缺点 需要计算 ( X T X ) − 1 (X^TX)^{-1} (XTX)−1时间复杂度大约是 O ( n 3 ) O(n^3) O(n3)n是特征数量 2. 相关系数与决定系数 常用相关系数来衡量两个变量间的相关性相关系数越大相关性越高使用直线拟合样本点时效果就越好。 公式如下两个变量的协方差除以标准差的乘积 r ( X , Y ) C o v ( X , Y ) V a r [ X ] V a r [ Y ] r(X,Y)\frac{Cov(X,Y)}{\sqrt{Var[X]Var[Y]}} r(X,Y)Var[X]Var[Y] ​Cov(X,Y)​ ∑ i 1 n ( X i − X ˉ ) ( Y i − Y ˉ ) ∑ i 1 n ( X i − X ˉ ) 2 ∑ i 1 n ( Y i − Y ˉ ) 2 \frac{\sum_{i1}^n(X_i-\bar{X})(Y_i-\bar{Y})}{\sqrt{\sum_{i1}^n(X_i-\bar{X})^2}\sqrt{\sum_{i1}^n(Y_i-\bar{Y})^2}} ∑i1n​(Xi​−Xˉ)2 ​∑i1n​(Yi​−Yˉ)2 ​∑i1n​(Xi​−Xˉ)(Yi​−Yˉ)​ 下图的样本点中左图的相关系数为0.993右图的相关系数为0.957即左图的样本点变量间的相关性更高。 相关系数用于描述两个变量之间的线性关系但决定系数 R 2 R^2 R2的适用范围更广可以用于描述非线性或者有两个及两个以上自变量的相关关系它可以用来评价模型的效果。 总平方和SST ∑ i 1 n ( y i − y ˉ ) 2 \sum_{i1}^{n}(y_i-\bar{y})^2 i1∑n​(yi​−yˉ​)2 回归平方和SSR ∑ i 1 n ( y ^ − y ˉ ) 2 \sum_{i1}^{n}(\hat{y}-\bar{y})^2 i1∑n​(y^​−yˉ​)2 残差平方和SSE ∑ i 1 n ( y i − y ^ ) 2 \sum_{i1}^{n}(y_i-\hat{y})^2 i1∑n​(yi​−y^​)2 三者的关系 S S T S S R S S E SSTSSRSSE SSTSSRSSE 决定系数 R 2 S S R S S T 1 − S S E S S T ∑ i 1 n ( y i − y ^ ) 2 ∑ i 1 n ( y i − y ˉ ) 2 R^2\frac{SSR}{SST}1-\frac{SSE}{SST}\frac{\sum_{i1}^{n}(y_i-\hat{y})^2}{\sum_{i1}^{n}(y_i-\bar{y})^2} R2SSTSSR​1−SSTSSE​∑i1n​(yi​−yˉ​)2∑i1n​(yi​−y^​)2​ R 2 R^2 R2的取值范围在0到1之间值为0表示模型无法解释因变量的变化值为1表示模型完全解释了因变量的变化。 覃秉丰——标准方程法 ↩︎ 白板推导——最小二乘法及其几何意义 ↩︎
http://wiki.neutronadmin.com/news/256520/

相关文章:

  • 花卉网站建设策划重庆市建设工程信息网怎么进不去
  • 品质好茶seo算法培训
  • 做押韵句子的网站游戏在线玩免费免登录
  • 建设企业网站得花多少钱wordpress响应主题
  • 360浏览器怎么拦截网站建设网站的协议
  • 中建铁路建设有限公司网站wordpress版本回退
  • 奉贤做网站创建网站的各项费用
  • 网站建设三站合一简述网站建设优劣的评价标准
  • 网站首页关键词设置网站设计师待遇
  • 布吉网站建设公司柳州网站建设多少钱
  • 网站后台代码如何做宁波网站建设佳选蓉胜网络好
  • 做网站搞活动网站设计的概述
  • 长春电商网站建设公司电话企业推广是什么职业
  • 帮助做APP的网站公司网上购物软件
  • 小说下载网站哪个好简述企业网站建设的主要步骤
  • 网站项目有需要什么技术支持河北新河网
  • 营商环境建设网站汕头网站推广教程
  • 风烛源网站管理系统网页设计与制作实训报告800字
  • 慕课网电子商务网站开发南阳高质量建设大城市网站
  • 怎么评价网站的好坏支持手机网站的空间
  • 网站转出在线设计平台招募设计师
  • 圣弓 网站建设北京三里屯
  • 东莞网站推广优化网站境外网站网站有哪些
  • 深圳企业网站建设专业芜湖集团网站建设
  • 做网站用什么ui美观手机制作视频软件app
  • 动易网站官网网络营销推广策划方案
  • 上海网站设计建设公司模板网站也需要服务器吗
  • 网站开发与实现文献综述wordpress添加缩略图
  • 凡科网建网站付费链接怎么做网站视频主持
  • ps可以在哪个网站上做兼职环保公司网站模板