当前位置: 首页 > news >正文

路得威网站谁做的app类似wordpress

路得威网站谁做的,app类似wordpress,九江市建设局网站,网站推广策划方案3000字目录 1. 梯度下降法1.1 一元线性回归1.2 多元线性回归1.3 标准方程法1.4 梯度下降法与标准方程法的优缺点 2. 相关系数与决定系数 1. 梯度下降法 1.1 一元线性回归 定义一元线性方程 y ω x b y\omega xb yωxb 则误差#xff08;残差#xff09;平方和 C ( ω , b ) … 目录 1. 梯度下降法1.1 一元线性回归1.2 多元线性回归1.3 标准方程法1.4 梯度下降法与标准方程法的优缺点 2. 相关系数与决定系数 1. 梯度下降法 1.1 一元线性回归 定义一元线性方程 y ω x b y\omega xb yωxb 则误差残差平方和 C ( ω , b ) ∑ i 1 n ( y i ^ − y i ) 2 C(\omega,b)\sum_{i1}^n(\hat{y_i}-y_i)^2 C(ω,b)i1∑n​(yi​^​−yi​)2 即 C ( ω , b ) ∑ i 1 n ( ω x i b − y i ) 2 C(\omega,b)\sum_{i1}^n(\omega x_ib-y_i)^2 C(ω,b)i1∑n​(ωxi​b−yi​)2 为方便计算常写为如下形式 C ( ω , b ) 1 2 n ∑ i 1 n ( ω x i b − y i ) 2 C(\omega,b)\frac{1}{2n}\sum_{i1}^n(\omega x_ib-y_i)^2 C(ω,b)2n1​i1∑n​(ωxi​b−yi​)2 其中 y i y_i yi​为真实值 y i ^ \hat{y_i} yi​^​为预测值。 若用一元线性方程拟合上面的数据集那么最佳的拟合直线方程需满足 C ( ω , b ) C(\omega,b) C(ω,b)最小即使得真实值到直线竖直距离的平方和最小。因此需要求解使得 C ( ω , b ) C(\omega,b) C(ω,b)最小的参数 ω \omega ω和 b b b即 min ⁡ ω , b C ( ω , b ) \min_{\omega,b}C(\omega,b) ω,bmin​C(ω,b) 梯度下降公式 ω : ω − α ∂ C ( ω , b ) ∂ ω ω − α 1 n ∑ i 1 n ( ω x i b − y i ) 2 x i \omega:\omega-\alpha \frac{\partial C(\omega,b)}{\partial \omega}\omega-\alpha \frac{1}{n}\sum_{i1}^n(\omega x_ib-y_i)^2x_i ω:ω−α∂ω∂C(ω,b)​ω−αn1​i1∑n​(ωxi​b−yi​)2xi​ b : b − α ∂ C ( ω , b ) ∂ b b − α 1 n ∑ i 1 n ( ω x i b − y i ) 2 b:b-\alpha \frac{\partial C(\omega,b)}{\partial b}b-\alpha \frac{1}{n}\sum_{i1}^n(\omega x_ib-y_i)^2 b:b−α∂b∂C(ω,b)​b−αn1​i1∑n​(ωxi​b−yi​)2 其中 α \alpha α为步长学习率 : : :表示赋值操作。 梯度下降基本步骤 初始化 ω \omega ω和 b b b常取0不断改变 ω \omega ω和 b b b直到 C ( ω , b ) C(\omega,b) C(ω,b)到达一个全局最小值或局部极小值。 下图使用梯度下降能到达局部最小值 下图使用梯度下降能到达全局最小值 下图中将 θ 1 \theta1 θ1看成 ω \omega ω J ( θ 1 ) J(\theta 1) J(θ1)看成 C ( ω , b ) C(\omega,b) C(ω,b)。则 在第一个点处 ∂ C ( ω , b ) ∂ ω \frac{\partial C(\omega,b)}{\partial \omega} ∂ω∂C(ω,b)​小于0根据梯度下降公式此时 ω \omega ω的值会增大即往代价函数最小值的方向靠近。在第三个点处 ∂ C ( ω , b ) ∂ ω \frac{\partial C(\omega,b)}{\partial \omega} ∂ω∂C(ω,b)​大于0根据梯度下降公式此时 ω \omega ω的值会减小即往代价函数最小值的方向靠近。 1.2 多元线性回归 定义多元线性方程 y ω 1 x 1 ω 2 x 2 . . . ω n x n b y\omega_1 x_1\omega_2 x_2...\omega_n x_nb yω1​x1​ω2​x2​...ωn​xn​b 误差平方和 C ( ω 1 , . . . , ω n , b ) 1 2 n ∑ i 1 n ( y ^ ( x i ) − y i ) 2 C(\omega_1,...,\omega_n,b)\frac{1}{2n}\sum_{i1}^n(\hat{y}(x^i)-y^i)^2 C(ω1​,...,ωn​,b)2n1​i1∑n​(y^​(xi)−yi)2 注 y ^ ( x i ) \hat{y}(x^i) y^​(xi)为预测值 y i y^i yi为真实值这里的 x i x^i xi表示的是第 i i i个数据包含多列属性。 由1.1可得 b : b − α 1 n ∑ i 1 n ( y ^ ( x i ) − y i ) 2 x 0 i b:b-\alpha \frac{1}{n}\sum_{i1}^n(\hat{y}(x^i)-y^i)^2x_0^i b:b−αn1​i1∑n​(y^​(xi)−yi)2x0i​ 这里 x 0 i 1 x^i_01 x0i​1以实现格式统一。 ω 1 : ω 1 − α 1 n ∑ i 1 n ( y ^ ( x i ) − y i ) 2 x 1 i \omega_1:\omega_1-\alpha \frac{1}{n}\sum_{i1}^n(\hat{y}(x^i)-y^i)^2x^i_1 ω1​:ω1​−αn1​i1∑n​(y^​(xi)−yi)2x1i​ ω 2 : ω 2 − α 1 n ∑ i 1 n ( y ^ ( x i ) − y i ) 2 x 2 i \omega_2:\omega_2-\alpha \frac{1}{n}\sum_{i1}^n(\hat{y}(x^i)-y^i)^2x^i_2 ω2​:ω2​−αn1​i1∑n​(y^​(xi)−yi)2x2i​ . . . ... ... ω n : ω n − α 1 n ∑ i 1 n ( y ^ ( x i ) − y i ) 2 x n i \omega_n:\omega_n-\alpha \frac{1}{n}\sum_{i1}^n(\hat{y}(x^i)-y^i)^2x^i_n ωn​:ωn​−αn1​i1∑n​(y^​(xi)−yi)2xni​ 改写为矢量版本 y ω T x y\omega ^Tx yωTx ω : ω − α 1 n X T ( y ^ ( x ) − y ) \omega:\omega-\alpha \frac{1}{n} X^T(\hat{y}(x)-y) ω:ω−αn1​XT(y^​(x)−y) 其中 ω \omega ω和 x x x某行数据均为列向量实际应用。 1.3 标准方程法 调用sklearn实现一元线性回归与多元线性回归的梯度下降时sklearn内部的实现并没有使用梯度下降法而是使用标准方程法。 公式推导利用最小二乘法12 上述公式推导使用到的矩阵求导公式 由推导的公式可知需要满足的条件是 ( X T X ) − 1 (X^TX)^{-1} (XTX)−1存在。在机器学习中 ( X T X ) − 1 (X^TX)^{-1} (XTX)−1不可逆的原因通常有两种一种是自变量间存在高度多重共线性例如两个变量之间成正比例如x1 为房子的面积单位是平方英尺x2为房子的面积单位是平方米而1 平方英尺0.0929 平方米那么在计算 ( X T X ) − 1 (X^TX)^{-1} (XTX)−1时可能得不到结果或者结果无效另一种则是当特征变量过多样本数 m ≤ \le ≤特征数量 n的时候也会导致 ( X T X ) − 1 (X^TX)^{-1} (XTX)−1不可逆。 ( X T X ) − 1 (X^TX)^{-1} (XTX)−1不可逆的情况很少发生如果有这种情况其解决问题的方法之一便是使用正则化以及岭回归等来求最小二乘法。 单变量情况下利用最小二乘法求解最佳参数 1.4 梯度下降法与标准方程法的优缺点 梯度下降法 优点 当特征值非常多的时候也可以很好的工作 缺点 需要选择合适的学习率需要迭代多个周期只能得到最优解的近似值 标准方程法 优点 不需要学习率不需要迭代可以得到全局最优解 缺点 需要计算 ( X T X ) − 1 (X^TX)^{-1} (XTX)−1时间复杂度大约是 O ( n 3 ) O(n^3) O(n3)n是特征数量 2. 相关系数与决定系数 常用相关系数来衡量两个变量间的相关性相关系数越大相关性越高使用直线拟合样本点时效果就越好。 公式如下两个变量的协方差除以标准差的乘积 r ( X , Y ) C o v ( X , Y ) V a r [ X ] V a r [ Y ] r(X,Y)\frac{Cov(X,Y)}{\sqrt{Var[X]Var[Y]}} r(X,Y)Var[X]Var[Y] ​Cov(X,Y)​ ∑ i 1 n ( X i − X ˉ ) ( Y i − Y ˉ ) ∑ i 1 n ( X i − X ˉ ) 2 ∑ i 1 n ( Y i − Y ˉ ) 2 \frac{\sum_{i1}^n(X_i-\bar{X})(Y_i-\bar{Y})}{\sqrt{\sum_{i1}^n(X_i-\bar{X})^2}\sqrt{\sum_{i1}^n(Y_i-\bar{Y})^2}} ∑i1n​(Xi​−Xˉ)2 ​∑i1n​(Yi​−Yˉ)2 ​∑i1n​(Xi​−Xˉ)(Yi​−Yˉ)​ 下图的样本点中左图的相关系数为0.993右图的相关系数为0.957即左图的样本点变量间的相关性更高。 相关系数用于描述两个变量之间的线性关系但决定系数 R 2 R^2 R2的适用范围更广可以用于描述非线性或者有两个及两个以上自变量的相关关系它可以用来评价模型的效果。 总平方和SST ∑ i 1 n ( y i − y ˉ ) 2 \sum_{i1}^{n}(y_i-\bar{y})^2 i1∑n​(yi​−yˉ​)2 回归平方和SSR ∑ i 1 n ( y ^ − y ˉ ) 2 \sum_{i1}^{n}(\hat{y}-\bar{y})^2 i1∑n​(y^​−yˉ​)2 残差平方和SSE ∑ i 1 n ( y i − y ^ ) 2 \sum_{i1}^{n}(y_i-\hat{y})^2 i1∑n​(yi​−y^​)2 三者的关系 S S T S S R S S E SSTSSRSSE SSTSSRSSE 决定系数 R 2 S S R S S T 1 − S S E S S T ∑ i 1 n ( y i − y ^ ) 2 ∑ i 1 n ( y i − y ˉ ) 2 R^2\frac{SSR}{SST}1-\frac{SSE}{SST}\frac{\sum_{i1}^{n}(y_i-\hat{y})^2}{\sum_{i1}^{n}(y_i-\bar{y})^2} R2SSTSSR​1−SSTSSE​∑i1n​(yi​−yˉ​)2∑i1n​(yi​−y^​)2​ R 2 R^2 R2的取值范围在0到1之间值为0表示模型无法解释因变量的变化值为1表示模型完全解释了因变量的变化。 覃秉丰——标准方程法 ↩︎ 白板推导——最小二乘法及其几何意义 ↩︎
http://wiki.neutronadmin.com/news/309221/

相关文章:

  • 中卫企业管理培训网站江西火电建设公司网站
  • 大理北京网站建设手游网站开发
  • 横岗网站制作专门做签到的网站
  • 60天做网站湖北专业的网瘾学校哪家口碑好
  • 做网站需要ftp吗哪个网站旅游攻略做的最好
  • 四川建设设计公司网站卖印花图案设计网站
  • 国际新闻最新10条广州百度推广优化
  • 织梦做有网站有后台 能下载备份所有代码文件么响应式网站手机
  • 网站制作难点页面设计软件排行
  • 电商运营和网站运营对比谷歌推广技巧
  • 企业网站建设规划书如何进行网站开发
  • 成都画时网站建设小程序怎么做出来的
  • 写作网站都有哪些ppp贵州省建设学校网站首页
  • 网络公司网站设计多少钱落地页制作
  • 食品网站网页设计wordpress弹出
  • 淄博网站建设小程序duplicator wordpress
  • 个人网站建设 优帮云装饰设计做什么的
  • wordpress的优势和兰州seo排名优化服务
  • 公司网站用wordpress网店运营ppt
  • 大连网站建设选高和科技wordpress 全站ssl
  • 大连网站建设哪家专业做脚本的网站
  • 文件夹里内容做网站的分类佛山免费自助建站模板
  • 制作企业网站宣传图步骤wordpress页面链接如何修改
  • 东凤网站怎么做网络推广赚钱
  • 建设刷单网站辽宁建设工程信息网大连
  • 万网怎么创建网站吗现在公司做网站还需要域名吗
  • 好看欧美视频网站模板下载 迅雷下载 迅雷下载地址企业网站seo哪里好
  • 网站开发哪个好赛盈分销平台官网
  • 免费医疗网站模板cms大型门户网站
  • 从零开始自己做外贸网站和海外网络营销free wordpress themes 4 u