当前位置: 首页 > news >正文

官网建站合作模版网站用什么颜色

官网建站合作模版,网站用什么颜色,网站实现隶书繁体,wordpress账户注意#xff1a;本文只针对离散随机变量做出探讨#xff0c;连续随机变量的情况不适用于本文探讨的内容#xff01; #xff08;一#xff09;自信息 1. 自信息 I ( x ) − l o g n P ( x ) \color{blue}I(x) - log_{n}{P(x)} I(x)−logn​P(x) 注意#xff1a; 若n …注意本文只针对离散随机变量做出探讨连续随机变量的情况不适用于本文探讨的内容 一自信息 1. 自信息 I ( x ) − l o g n P ( x ) \color{blue}I(x) - log_{n}{P(x)} I(x)−logn​P(x) 注意 若n 2叫做bit 若n 3叫做tet 若n e叫做nat 若n 10叫做hat 一般来讲在信息论中以2为底数比较普遍。 从公式的含义来看 由于 P ( x ) 代表的是概率的大小其值介于区间 ( 0 , 1 ) 之间 当 p ( x ) 趋于 0 时代表信息量是无穷大的而当 p ( x ) 趋于 1 时它代表的信息量是 0 。 \color{red}从公式的含义来看\\由于P(x)代表的是概率的大小其值介于区间(0,1)之间\\ 当p(x)趋于0时代表信息量是无穷大的而当p(x)趋于1时它代表的信息量是0。 从公式的含义来看由于P(x)代表的是概率的大小其值介于区间(0,1)之间当p(x)趋于0时代表信息量是无穷大的而当p(x)趋于1时它代表的信息量是0。 自信息还包括条件自信息和联合自信息。其中条件自信息定义如下 I ( x y ) − log ⁡ P ( x ∣ y ) − log ⁡ p ( x y ) p ( y ) I(xy) - \log P(x|y) - \log \frac {p(xy)}{p(y)} I(xy)−logP(x∣y)−logp(y)p(xy)​ 联合自信息的定义如下 I ( x y ) − l o g n P ( x y ) \color{red}I(xy) - log_{n}{P(xy)} I(xy)−logn​P(xy) 联合自信息的特点 I ( x y ) I ( y ∣ x ) I ( x ) I ( x ∣ y ) I ( y ) \color{red}I(xy) I(y|x) I(x) I(x|y) I(y) I(xy)I(y∣x)I(x)I(x∣y)I(y) 当x 与y 相互独立时有 I ( x y ) I ( x ) I ( y ) \color{red}I(xy) I(x) I(y) I(xy)I(x)I(y) 2. 条件熵 条件熵是平均条件自信息的另一种解释是条件自信息的期望值。 I ( x ∣ y ) − ∑ x ∈ X P ( x i ∣ y i ) ∑ y ∈ Y P ( y i ) l o g P ( x i ∣ y i ) − ∑ x ∈ X ∑ y ∈ Y P ( x y ) L o g P ( x ∣ y ) I(x|y) -\sum_{x\in X}P(x_i|y_i)\sum_{y \in Y}P(y_i)logP(x_i|y_i)-\sum_{x\in X}\sum _{y \in Y}P(xy)LogP(x|y) I(x∣y)−x∈X∑​P(xi​∣yi​)y∈Y∑​P(yi​)logP(xi​∣yi​)−x∈X∑​y∈Y∑​P(xy)LogP(x∣y) 要注意此处log符号前的概率是 p ( x y ) \color{green}p(xy) p(xy)而不是 p ( x ∣ y ) \color{green}p(x|y) p(x∣y) 另外从上面的公式可知必须要计算整个y的条件概率而不是 y i y_i yi​的条件概率故log符号前面是p(xy)而不是p(x|y) 3.平均互信息 I ( x ; y ) ∑ x ∈ X ∑ y ∈ Y l o g p ( x y ) p ( x ) p ( y ) ∑ x ∈ X ∑ y ∈ Y l o g p ( x ∣ y ) p ( x ) ∑ x ∈ X ∑ y ∈ Y l o g p ( y ∣ x ) p ( y ) I ( y ; x ) I(x;y) \sum_{x \in X} \sum_{y \in Y} log \frac {p(xy)} {p(x) p (y)} \\ \sum_{x \in X} \sum_{y \in Y} log \frac {p(x|y)} {p(x)} \sum_{x \in X} \sum_{y \in Y} log \frac {p(y|x)} {p(y)} I(y;x) I(x;y)x∈X∑​y∈Y∑​logp(x)p(y)p(xy)​x∈X∑​y∈Y∑​logp(x)p(x∣y)​x∈X∑​y∈Y∑​logp(y)p(y∣x)​I(y;x) 互信息的重要性质 I ( x ; y ) H ( x ) − H ( x ∣ y ) H ( y ) − H ( y ∣ x ) I(x; y) H(x) - H(x|y) H(y) -H(y|x) I(x;y)H(x)−H(x∣y)H(y)−H(y∣x) 证明 H ( x ) − H ( x ∣ y ) − ∑ x ∈ X P ( x ) l o g P ( x ) ∑ x ∈ X ∑ y ∈ Y p ( x y ) l o g P ( x ∣ y ) − ∑ x ∈ X p ( x ) l o g p ( x ) ∑ y ∈ Y p ( y ∣ x ) ∑ x ∈ X ∑ y ∈ Y p ( x y ) l o g P ( x ∣ y ) − ∑ x ∈ X ∑ y ∈ Y p ( x y ) l o g p ( x ) ∑ x ∈ X ∑ y ∈ Y p ( x y ) l o g P ( x ∣ y ) ∑ x ∈ X ∑ y ∈ Y p ( x y ) l o g P ( x y ) P ( x ) P ( y ) I ( x ; y ) H(x) - H (x|y) -\sum_{x \in X} P(x)log P(x) \sum_{x \in X} \sum_{y \in Y} p(xy)log P(x|y) \\ - \sum_{x \in X}p(x) log p(x) \sum_{y \in Y} p(y|x) \sum_{x \in X} \sum_{y \in Y} p(xy)log P(x|y)\\ - \sum_{x \in X} \sum_{y \in Y}p(xy)logp(x) \sum_{x \in X} \sum_{y \in Y} p(xy)log P(x|y) \\ \sum_{x \in X} \sum_{y \in Y} p(xy)log \frac {P(xy)}{P(x)P(y)} I(x;y) H(x)−H(x∣y)−x∈X∑​P(x)logP(x)x∈X∑​y∈Y∑​p(xy)logP(x∣y)−x∈X∑​p(x)logp(x)y∈Y∑​p(y∣x)x∈X∑​y∈Y∑​p(xy)logP(x∣y)−x∈X∑​y∈Y∑​p(xy)logp(x)x∈X∑​y∈Y∑​p(xy)logP(x∣y)x∈X∑​y∈Y∑​p(xy)logP(x)P(y)P(xy)​I(x;y) 此处要注意的是一个知识点就是 ∑ y ∈ Y p ( y i ∣ x ) ∑ y ∈ Y p ( x ∣ y i ) p ( y i ) p ( x ) 1 \sum_{y \in Y} p(y_i|x) \sum_{y \in Y} \frac {p(x|y_i)p(y_i)}{p(x)} 1 ∑y∈Y​p(yi​∣x)∑y∈Y​p(x)p(x∣yi​)p(yi​)​1 注意平均的含义是期望值平均互信息即为互信息的期望值其定义为 I ( x ; y ) ∑ x ∈ X ∑ y ∈ Y P ( x y ) l o g p ( x y ) p ( x ) p ( y ) ∑ x ∈ X ∑ y ∈ Y P ( x y ) l o g p ( x ∣ y ) p ( x ) ∑ x ∈ X ∑ y ∈ Y P ( x y ) l o g p ( y ∣ x ) p ( y ) I ( y ; x ) I(x;y) \sum_{x \in X} \sum_{y \in Y} P(xy) log \frac {p(xy)} {p(x) p (y)} \\ \sum_{x \in X} \sum_{y \in Y} P(xy) log \frac {p(x|y)} {p(x)} \sum_{x \in X} \sum_{y \in Y} P(xy) log \frac {p(y|x)} {p(y)} I(y;x) I(x;y)x∈X∑​y∈Y∑​P(xy)logp(x)p(y)p(xy)​x∈X∑​y∈Y∑​P(xy)logp(x)p(x∣y)​x∈X∑​y∈Y∑​P(xy)logp(y)p(y∣x)​I(y;x) 4. 条件互信息 联合集XYZ中给定条件Z下X与Y的互信息定义如下 I ( x ; y ∣ z ) I ( x ∣ z ) − I ( x ∣ y z ) − log ⁡ P ( x ∣ z ) log ⁡ P ( x ∣ y z ) log ⁡ p ( x ∣ y z ) p ( x ∣ z ) I(x;y|z) I(x|z) - I(x|yz) -\log P(x|z) \log P(x|yz) \log \frac {p(x|yz)}{p(x|z)} I(x;y∣z)I(x∣z)−I(x∣yz)−logP(x∣z)logP(x∣yz)logp(x∣z)p(x∣yz)​ 二熵 熵的定义比较重要重点讲述但是其含义跟上一个标题中的平均互信息、条件熵类似都是一种期望值。 熵的定义自信息的数学期望为信源的平均自信息量信息熵。 用数学期望值的原因是因为自信息是一个随机事件的概率 , 不能用作整个信源的信息测度。 由此可见熵是自信息概念的进一步扩展是自信息的期望值 \color{red}熵的定义自信息的数学期望为信源的平均自信息量信息熵。\\用数学期望值的原因是因为自信息是一个随机事件的概率, 不能用作整个信源的信息测度。\\由此可见熵是自信息概念的进一步扩展是自信息的期望值 熵的定义自信息的数学期望为信源的平均自信息量信息熵。用数学期望值的原因是因为自信息是一个随机事件的概率,不能用作整个信源的信息测度。由此可见熵是自信息概念的进一步扩展是自信息的期望值 二元熵 二元熵是熵的一个特例也就是一件事情有两种情况发生这两种情况的概率已知那么这件事情的熵计算公式如下 H ( x ) − p l o g p − ( 1 − p ) l o g ( 1 − p ) H(x) - p log p - (1-p) log(1-p) H(x)−plogp−(1−p)log(1−p) 离散熵 H ( x ) E x [ I ( x ) ] − ∑ i 1 n [ P ( x i ) l o g n P ( x i ) ] \color{blue} H(x) E_x[I(x)]-\sum^{ n }_{i1} [P(x_i)log_nP(x_i)] H(x)Ex​[I(x)]−i1∑n​[P(xi​)logn​P(xi​)] 连续熵 H ( x ) E x [ I ( x ) ] − ∫ ∞ − ∞ P ( x ) l o g n P ( x ) d x \color{green}H(x) E_{x}[I(x)] - \int_{\infty}^{-\infty}P(x)log_{n}P(x)dx H(x)Ex​[I(x)]−∫∞−∞​P(x)logn​P(x)dx 注意积分中是对x微分而不是P(x) 熵的一些重要知识点 根据极限相关知识可得 lim ⁡ P ( x ) → 0 − P ( x ) l o g n P ( x ) lim ⁡ x → 0 l o g n P ( x ) 1 − P ( x ) 1 P ( x ) P ( x ) 2 P ( x ) 0 \color{red}\lim_{P(x) \to 0}-P(x)log_nP(x) \lim_{x \to 0} \frac {log_nP(x)} {\frac{1}{-P(x)}} \frac{1}{P(x)} P(x)^2 P(x) 0 P(x)→0lim​−P(x)logn​P(x)x→0lim​−P(x)1​logn​P(x)​P(x)1​P(x)2P(x)0 同时当P(x) 1时H(x) 0。 连续熵的导数为0时 H ′ ( x ) − P ( x ) l o g n P ( x ) 0 H(x) -P(x) log_nP(x) 0 H′(x)−P(x)logn​P(x)0可得 1当熵的导数为0时可得P(x) 1( P ( x ) 0 不在定义域中不符合条件 \color{green}P(x) 0不在定义域中不符合条件 P(x)0不在定义域中不符合条件因此熵在该点处取得极值。 2再考察P(x) 1 左右处的值左侧导数大于0右侧导数小于0因此在P(x) 1处连续熵函数取得最小值0。 此处似乎有错误 , 问题在于离散熵和连续熵函数具有很大的区别其细节问题留待勘查 \color{red}此处似乎有错误,问题在于离散熵和连续熵函数具有很大的区别其细节问题留待勘查 此处似乎有错误,问题在于离散熵和连续熵函数具有很大的区别其细节问题留待勘查 3熵的值总是大于0。由于P(x)的含义是x的概率概率总是大于0小于1的又 − P ( x ) l o g n P ( x ) P ( x ) l o g n 1 P ( x ) -P(x)log_nP(x) P(x)log_n \frac{1}{P(x)} −P(x)logn​P(x)P(x)logn​P(x)1​根据log函数的性质 l o g n 1 P ( x ) log_n\frac{1}{P(x)} logn​P(x)1​也大于0故熵的值必然大于0。 4H(xy) H(x) H(y|x) 证明 H ( x ) H ( y ∣ x ) − ∑ i 1 n P ( x y ) l o g P ( x y ) P ( x ) − ∑ i 1 n P ( x ) l o g P ( x ) − ∑ i 1 n P ( x y ) l o g P ( x y ) H ( x y ) H(x) H(y|x) - \sum_{i1}^n P(xy) log \frac {P(xy) }{P(x)} - \sum _{i1}^n P(x)log P(x) \\ -\sum_{i1}^n P(xy) log P(xy) H(xy) H(x)H(y∣x)−i1∑n​P(xy)logP(x)P(xy)​−i1∑n​P(x)logP(x)−i1∑n​P(xy)logP(xy)H(xy) 同理H(xy) H(y) H(x|y) 另外还有几个重要的结论 1当已知分布上下限时均匀分布的熵最大当知道均值和方差时正态分布的熵最大。 2给定一串数据其中数据元 x 出现的概率为p(x)则最佳编码长度为 − l o g 2 P ( x ) -log_2P(x) −log2​P(x)整段文本的平均编码长度为 − ∑ i 1 n P ( x i ) l o g 2 P ( x i ) -\sum_{i1}^{n}P(x_i)log_2P(x_i) −∑i1n​P(xi​)log2​P(xi​)即底为2的熵。 3最大离散熵定理 具有n个符号的离散信源只有在n个信源等概率的情况下熵才能取得最大值即等概率的熵最大这叫做最大离散熵定理。 此定理是熵的判定中一个重要定理。 最大离散熵定理的证明 已知条件 ∑ i 1 n p i 1 , H ( x ) − ∑ i 1 n p i l o g p i , p 1 p 2 . . p i p n , 根据拉格朗日乘数法则得 H ( x ) − ∑ i 1 n p i l o g p i λ ( ∑ i 1 n p i − 1 ) ∂ H ( x ) ∂ p i − n l o g p i − n n λ 0 , p i 1 n 由此得知 p i e λ − 1 即 p i 服从指数分布 已知条件\\ \sum _{i 1} ^ np_i 1, \\ H(x) -\sum_{i1}^{n} p_i log p_i,\\ p_1 p_2 .. p_i p_n,\\ 根据拉格朗日乘数法则得\\ H(x) -\sum_{i1}^{n} p_i log p_i \lambda(\sum _{i 1}^n p_i -1) \\ \frac {\partial H(x)}{\partial p_i} - nlogp_i - n n \lambda 0, p_i \frac {1}{n}由此得知\\ p_i e ^ {\lambda - 1}即p_i服从指数分布 已知条件i1∑n​pi​1,H(x)−i1∑n​pi​logpi​,p1​p2​..pi​pn​,根据拉格朗日乘数法则得H(x)−i1∑n​pi​logpi​λ(i1∑n​pi​−1)∂pi​∂H(x)​−nlogpi​−nnλ0,pi​n1​由此得知pi​eλ−1即pi​服从指数分布 4已知均值和方差时正态分布下熵的值最大该证明的参考链接如下 https://zhuanlan.zhihu.com/p/309831227 5任何概率分布下的信息熵一定不会大于它对其它概率分布下自信息的数学期望交叉熵有极小值 证明 ∵ l n x ≤ x − 1 ∴ ∑ i 1 n p i × l n q i p i ≤ ∑ i n n p i × ( q i p i − 1 ) ∑ i 1 n q i − ∑ i 1 n p i 0 ∴ ∑ i 1 n p i × l n q i p i ∑ i 1 n p i l n q i − ∑ i 1 n p i l n p i ≤ 0 ∴ ∑ i 1 n p i l n q i ≤ ∑ i 1 n p i l n p i \because lnx \le x - 1\\ \therefore \sum _{i1}^{n} p_i \times ln \frac {q_i}{p_i} \le \sum _{in} ^{n} p_i \times \bigl ( \frac{q_i}{p_i} - 1) \sum _{i1}^{n}q_i - \sum _{i1} ^ {n} p_i 0 \\ \therefore \sum _{i1}^{n} p_i \times ln \frac {q_i}{p_i} \sum _{i1}^{n} p_i ln q_i - \sum _{i1}^{n} p_i ln p_i \le 0 \\ \therefore \sum _{i1}^{n} p_i ln q_i \le \sum _{i1}^{n} p_i ln p_i ∵lnx≤x−1∴i1∑n​pi​×lnpi​qi​​≤in∑n​pi​×(pi​qi​​−1)i1∑n​qi​−i1∑n​pi​0∴i1∑n​pi​×lnpi​qi​​i1∑n​pi​lnqi​−i1∑n​pi​lnpi​≤0∴i1∑n​pi​lnqi​≤i1∑n​pi​lnpi​ 交叉熵有极小值也是机器学习的基础理论之一。 6熵函数具有上凸性熵函数必有最大值。此结论只针对离散随机变量 三熵几个概念之间的图形化关系 最后关于信息论中各个部分的关系如下其中 图中H(X)与H(Y)是XY两个部分的熵I(XY)是两者熵的重合部分。 H(X|Y)是H(X) 去掉I(XY)部分H(Y|X)是H(Y) 去掉I(XY)部分H(XY)是两者的面积去掉I(xy)的部分。
http://wiki.neutronadmin.com/news/297100/

相关文章:

  • 丽水网站开发制作返利网站
  • 拍卖网站模版网站图片设置教程
  • ui设计师网站python做网站有什么弊端
  • 获客平台有哪些seo网站优化经理
  • 网站的数据库怎么做网站搜索优化技巧
  • 钦州网站建建一个网站一般要多少钱
  • 长春 餐饮 网站建设好的app设计网站
  • 网站被k的表现做网站上极海网
  • 重庆秀山网站建设公司网站代运营公司
  • 有哪些做网站的公司好佛山电商网站制作
  • 那些网站分享pr做的视频软件东莞建设培训中心网站
  • 网站建设龙卡要审批多久时间云电脑永久免费版手机版
  • 早教类网站模板去掉wordpress 上一篇
  • 怎么用vs做网站网站建设续费是什么费用
  • 网站建设内容和功能的介绍怎么在工商网站做实名认证
  • 新闻类网站设计wordpress如何在数据库中修改域名
  • 有哪些做短租的网站好口碑好网站制作公司哪家好
  • 企业网站的优化和推广方法建立网站专栏
  • 关于做网站的外语文献抖音搜索排名
  • 烟台专业网站制作公司安宁网站建设熊掌号
  • oa网站建设推广开发网站公司地址
  • 大麦网建设网站的功能定位ps制作博客网站界面
  • 下载网站后台成都市住房和城乡建设厅官方网站
  • 家谱网站的首页怎么做购物网站建设方案书
  • 怎么做一张图片的网站关于做摄影的网站
  • 新余门户网站开发万词霸屏百度推广seo
  • 网站弹出代码谷歌应用商店app下载
  • 广州海外建站左旗网站建设
  • dede电影网站源码有和wind一样做用网站
  • 神华公司两学一做网站桂林市教科所