当前位置: 首页 > news >正文

asp汽车驾驶培训学校网站源码整站seo优化一般多少钱

asp汽车驾驶培训学校网站源码,整站seo优化一般多少钱,推广下载app赚钱,wordpress采集淘宝客概率分布之间的距离#xff0c;顾名思义#xff0c;度量两组样本分布之间的距离 。 1、卡方检验 统计学上的χ2统计量#xff0c;由于它最初是由英国统计学家Karl Pearson在1900年首次提出的#xff0c;因此也称之为Pearson χ2#xff0c;其计算公式为 (i1#xff0c;2顾名思义度量两组样本分布之间的距离 。 1、卡方检验 统计学上的χ2统计量由于它最初是由英国统计学家Karl Pearson在1900年首次提出的因此也称之为Pearson χ2其计算公式为   (i123…k)   其中Ai为i水平的观察频数Ei为i水平的期望频数n为总频数pi为i水平的期望频率。i水平的期望频数Ei等于总频数n×i水平的期望概率pi。当n比较大时χ2统计量近似服从k-1(计算Ei时用到的参数个数)个自由度的卡方分布。        卡方检验经常用来检验某一种观测分布是不是符合某一类典型的理论分布如二项分布正态分布等)。观察频数与期望频数越接近两者之间的差异越小χ2值越小如果两个分布完全一致χ2值为0反之观察频数与期望频数差别越大两者之间的差异越大χ2值越大。换言之大的χ2值表明观察频数远离期望频数即表明远离假设。小的χ2值表明观察频数接近期望频数接近假设。因此χ2是观察频数与期望频数之间距离的一种度量指标也是假设成立与否的度量指标。如果χ2值“小”研究者就倾向于不拒绝H0如果χ2值大就倾向于拒绝H0。至于χ2在每个具体研究中究竟要大到什么程度才能拒绝H0则要借助于卡方分布求出所对应的P值来确定通常取p0.05)。 在python中的实现 # -*- coding: utf-8 -*-卡方公式(o-e)^2 / e 期望值和收集到数据不能低于5o(observed)观察到的数据eexpected表示期望的数据 (o-e)平方最后除以期望的数据e import numpy as np from scipy.stats import chisquare list_observenp.array([30,14,34,45,57,20]) list_expectnp.array([20,20,30,40,60,30])#方法一:根据公式求解最后根据c1的值去查表判断 c1np.sum(np.square(list_observe-list_expect)/list_expect)#方法二使用scipy库来求解 c2,pchisquare(f_obslist_observe, f_explist_expect)返回NAN无穷小if p0.05 or pnan:print(H0 win,there is no difference) else:print(H1 win,there is difference)   2、交叉熵 通常一个信源发送出什么符号是不确定的衡量它的不确定性可以根据其出现的概率来度量。概率大出现机会多不确定性小反之就大。 不确定性函数f必须满足两个条件    1是概率P的单调递降函数    2两个独立符号所产生的不确定性应等于各自不确定性之和即fP1P2fP1fP2这称为可加性。 同时满足这两个条件的函数f是对数函数即 在信源中考虑的不是某一单个符号发生的不确定性而是要考虑这个信源所有可能发生情况的平均不确定性。若信源符号有n种取值U1…Ui…Un对应概率为P1…Pi…Pn且各种符号的出现彼此独立。这时信源的平均不确定性应当为单个符号不确定性-logPi的统计平均值E可称为信息熵即 假设现在有一个样本集中两个概率分布p,q其中p为真实分布q为非真实分布。假如按照真实分布p来衡量识别一个样本所需要的编码长度的期望为 H(p) 但是如果采用错误的分布q来表示来自真实分布p的平均编码长度则应该是 H(p,q)  我们称H(p)为信息熵称H(p,q)为交叉熵。 交叉熵在CNN分类中经常用到用来作为预测值和真实标签值的距离度量。经过卷积操作后最后一层出来的特征经过softmax函数后会变成一个概率向量我们可以看作为是概率分布q, 而真实标签我们可以看作是概率分布p, 因此真实分布p和预测分布q的交叉熵就是我们要求的loss损失值即 在python中的实现 import numpy as np import tensorflow as tffeanp.asarray([6.5,4.2,7.4,3.5],np.float32) labelnp.array([1,0,0,0])#方法一根据公式求解 def softmax(x):return np.exp(x)/np.sum(np.exp(x),axis0) loss1-np.sum(label*np.log(softmax(fea)))#方法二调用tensorflow深度学习框架求解 sesstf.Session() logitstf.Variable(fea) labelstf.Variable(label) sess.run(tf.global_variables_initializer()) loss2sess.run(tf.losses.softmax_cross_entropy(labels,logits)) sess.close()   3、相对熵(relative entropy) 又称为KL散度Kullback–Leibler divergence简称KLD信息散度information divergence信息增益information gain。 相对熵是交叉熵与信息熵的差值。即 相对熵交叉熵-信息熵  KL(p||q)H(p,q)-H(p) 表示用分布q模拟真实分布p相比用p模拟p所需的额外信息。 相对熵KL散度有两个主要的性质。如下 1尽管 KL 散度从直观上是个度量或距离函数但它并不是一个真正的度量或者距离因为它不具有对称性即 (2)相对熵具有非负性 总结一下 信息熵公式   交叉熵公式     相对熵公式 三者的关系 在python中的实现 import numpy as np import scipy.statspnp.asarray([0.65,0.25,0.07,0.03]) qnp.array([0.6,0.25,0.1,0.05])#方法一根据公式求解 kl1np.sum(p*np.log(p/q))#方法二调用scipy包求解 kl2scipy.stats.entropy(p, q)   4、js散度Jensen-Shannon 因为kl散度不具对称性因此js散度在kl散度的基础上进行了改进 现有两个分布p1和p2其JS散度公式为   在python中的实现 import numpy as np import scipy.statspnp.asarray([0.65,0.25,0.07,0.03]) qnp.array([0.6,0.25,0.1,0.05])M(pq)/2#方法一根据公式求解 js10.5*np.sum(p*np.log(p/M))0.5*np.sum(q*np.log(q/M))#方法二调用scipy包求解 js20.5*scipy.stats.entropy(p, M)0.5*scipy.stats.entropy(q, M)  转载于:https://www.cnblogs.com/denny402/p/7050779.html
http://wiki.neutronadmin.com/news/454196/

相关文章:

  • access 可以做网站不天津网络优化招聘
  • 要建立网站怎么建立wordpress更改主题
  • 艺术设计招聘网站医疗网络营销外包
  • 建设网站的功能定位企业网站建设招标文件
  • 深圳网站建设技术电商设计工资
  • 做网站企业经营范围最好看的免费观看视频
  • 客户对网站建设公司的评价网站制作简介
  • 合肥营销型网站建设开发网站开发软件著作权归谁
  • 网站 尺寸网络培训课堂
  • 做网站到哪里做html5做网页网站
  • 网站主页和子页风格如何统一少儿编程培训机构哪家好
  • 广州市住宅建设发展有限公司网站滦平县建设局网站
  • 如何用自己网站做大电商网站推广策划公司
  • 自助建站系统外贸网站 php
  • 邢台网站改版定制黄冈网站开发
  • 建设类招标代理公司网站平顶山公司做网站
  • 南京外贸网站建设哪家好网站建设石家庄市
  • m版网站开发织梦和wordpress哪个速度快
  • 江门网站推广多少钱宁波模板建站多少钱
  • 手机网站模板制作教程深圳网站建设厂家哪家好
  • 网站推广员能力要求河北工程大学最新消息
  • 济南php网站开发湘西建设监理协会网站
  • 2000个免费货源网站怎样做好营销宣传
  • 章丘区当地网站建设哪家好网站优化排名方案
  • 做网站推广运营前景西安装修公司哪家口碑最好
  • 模板建站优点seo外包公司怎么样
  • 阿里云网站简单建设如何创建网站的快捷方式
  • 用wordpress建站会不会显得水平差免费咨询平台电话
  • 梁山网站建设电话搜索引擎营销成功案例
  • 山东做外贸网站的公司自己做的网页可以上传网站吗