当前位置: 首页 > news >正文

网站自动采集更新公司申请网站备案

网站自动采集更新,公司申请网站备案,帮助做ppt的网站,百度有刷排名软件一、介绍 传统的监督学习是单标签学习#xff0c;但是现实中一个实例可能对应多个标签。这篇文章介绍了多标签分类的定义和评价指标、多标签学习的算法还有其他相关的任务。 二、问题相关定义 2.1 多标签学习任务 假设 X R d X R^d XRd#xff0c;表示d维的输入空间但是现实中一个实例可能对应多个标签。这篇文章介绍了多标签分类的定义和评价指标、多标签学习的算法还有其他相关的任务。 二、问题相关定义 2.1 多标签学习任务 假设 X R d X R^d XRd表示d维的输入空间 Y ( y 1 , y 2 , y 3 . , . . . , y q Y (y_1, y_2, y_3., ..., y_q Y(y1​,y2​,y3​.,...,yq​表示输出的可能q个类别。多标签任务是学习一个方程在训练集合 D { ( x i , Y i ) ∣ 1 ≤ i ≤ m } D \{(x_i, Y_i)|1 \leq i \leq m\} D{(xi​,Yi​)∣1≤i≤m}学习一个X到Y的函数。对于每个多标签实例 x i ∈ X x_i \in X xi​∈X是d维特征空间 ( x i 1 , x i 2 , . . . , x i d ) T (x_{i1}, x_{i2}, ..., x_{id})^T (xi1​,xi2​,...,xid​)T Y i ⊆ Y Y_i \subseteq Y Yi​⊆Y是对应于 x x x的标签几何。多标签学习任务就是学习一个多标签分类器 h ( . ) h(.) h(.)对于没有见到过的实例 x ∈ X x \in X x∈X可以预测他的标签 h ( x ) ⊆ Y h(x) \subseteq Y h(x)⊆Y。 2.2 多标签学习的特点 2.2.1. 不同数据集多标签的程度可能不同 有几个有用的多标签指示符可以用于描述多标签数据集的特性。 最自然的方法就是衡量多标签程度的是label cardinality(标签基数 L C a r d ( D ) 1 m ∑ i 1 m ∣ Y i ∣ LCard(D) \frac{1}{m}\sum_{i1}^m|Y_i| LCard(D)m1​i1∑m​∣Yi​∣ 表示每个样本的平均标签数目。“标签密度”label density按标签空间中可能的标签数规范化标签基数 L D e n ( D ) 1 y ⋅ L C a r d ( D ) LDen(D) \frac{1}{y} \cdot LCard(D) LDen(D)y1​⋅LCard(D)标签多样性Label diversity L D i v ( D ) ∣ Y ∣ e x i s t s x : ( x , Y ) ∈ D ∣ LDiv(D) |{Y|exists x:(x,Y)\in D}| LDiv(D)∣Y∣existsx:(x,Y)∈D∣ 数据集中出现的不同标签集的数目标签多样性可以通过数据集的数量来标准化以表示不同标签集的比例 P L D i v ( D ) 1 D ⋅ L D i v ( D ) PLDiv(D)\frac{1}{D}\cdot LDiv(D) PLDiv(D)D1​⋅LDiv(D) 多标签学习就是学习x和y的相关性希望 f ( x , y ′ ) ≥ f ( x , y ′ ′ ) f(x, y^{}) \ge f(x, y^{}) f(x,y′)≥f(x,y′′)其中 y ′ ∈ Y y \in Y y′∈Y, y ′ ′ ∉ Y y^{}\notin Y y′′∈/Y。所以多标签分类器可以通过函数f(.,.)得到 h ( x ) { y ∣ f ( x , y ) ≥ t ( x ) , y ∈ Y } h(x) \{y | f(x,y) \ge t(x), y\in Y\} h(x){y∣f(x,y)≥t(x),y∈Y}其中 t ( x ) t(x) t(x)扮演阈值函数的角色把标签空间对分成相关的标签集和不相关的标签集。阈值函数可以由训练集产生可以设为常数。 2.2.2. 标签具有相互关系 学习策略 多标签学习的主要难点在于输出空间的爆炸增长有效的挖掘标签之间的相关性是多标签学习成功的关键。根据对相关性挖掘的强弱可以把多标签算法分为三类。 一阶学习策略忽略和其它标签的相关性比如把多标签分解成多个独立的二分类问题简单高效。二阶学习策略考虑标签之间的成对关联比如为相关标签和不相关标签排序。高阶学习策略考虑多个标签之间的关联比如对每个标签考虑所有其它标签的影响效果最优。 2.2.3 数据不平衡 一. 某个类别对应样例可能远多于另一个类别类别之间不平衡 二. 某个类别对应的正样本可能远多于负样本类别之内不平衡 2.3 阈值校准 多标签学习中的一种常见做法是返回一些实值函数 f ⋅ ⋅ f·· f⋅⋅作为学习模型。为了决定最后的输出结果每个标签上的实值输出应根据阈值函数输出 t ( x ) t(x) t(x)进行校准。 通常有两种方法设置 t ( ∗ ) t(*) t(∗)设置 t ( ∗ ) t(*) t(∗)为常量或者从训练数据中预测。对于前者 f f f是一个实值函数所以t可设置为0。当 f f f的输出为概率时 t t t设置为0.5。或者当测试集可见时阈值可以设置为训练集合测试集的多标签程度指标区别最小的数。 对于后一个策略可以用stacking-style的步骤来决定阈值函数。假设 t t t是一个线性模型即 t ( x ) w , f ( x ) b t(x) w, f(x) b t(x)w,f(x)b这里 f ( x ) ( f ( x , y 1 ) , . . . , f ( x , y q ) ) T ∈ R q f(x) (f(x, y1),...,f(x,y_q))^T \in R^q f(x)(f(x,y1),...,f(x,yq​))T∈Rq是一个 q q q维stacking向量。为了学习 w ∗ w^* w∗和 b ∗ b^* b∗需要求解线性最小二乘。 m i n w ∗ , b ∗ ∑ i − 1 m ( w ∗ , f ∗ ( x i ) b ∗ − s ( x i ) ) 2 min_{w^*,b^*}\sum_{i-1}^m(w^*,f^*(x_i) b^* - s(x_i))^2 minw∗,b∗​i−1∑m​(w∗,f∗(xi​)b∗−s(xi​))2 s ( x i ) a r g m i n a ∈ R ( ∣ { y j ∣ y j ∈ Y i , f ( x i , y j ) ≤ a } ∣ ∣ { y k ∣ y k ∈ Y ^ i , f ( x i , y k ) ≥ a } ∣ ) s(x_i)argmin_{a\in R}(|\{y_j | y_j \in Y_i, f(x_i, y_j) \leq a\}||\{y_k|y_k \in \hat Y_i, f(x_i, y_k) \geq a\}|) s(xi​)argmina∈R​(∣{yj​∣yj​∈Yi​,f(xi​,yj​)≤a}∣∣{yk​∣yk​∈Y^i​,f(xi​,yk​)≥a}∣)表示模型的输出目标对每个样本它以最小误差将 Y Y Y划分为相关和不相关。 2.4 评价指标 2.4.1 分类评价指标 Examples-based metrics 基于样本评价指标 通过分别评估学习系统在每个测试示例上的性能然后返回整个测试集的平均值Label-based metrics 基于标签评价指标 通过分别评估每个类标签上的学习系统性能然后返回所有类标签上的宏/微观平均值 2.4.2 排序评价指标 下面对每个指标进行介绍 基于样本的评价指标 Subset Accuracy(衡量正确率预测的样本集和真实的样本集完全一样就是正确) s u b s e t a c c ( h ) 1 p ∑ i 1 p [ h ( x i ) Y i ] subsetacc(h) \frac{1}{p} \sum_{i1}^p[h(x_i) Y_i] subsetacc(h)p1​i1∑p​[h(xi​)Yi​]Hamming Loss衡量的是错分的标签比例正确标签没有被预测以及错误标签被预测的标签占比 h l o s s ( h ) 1 p ∑ i 1 p ∣ h ( x i ) Δ Y i ∣ hloss(h) \frac{1}{p}\sum_{i1}^p|h(x_i)\Delta Y_i| hloss(h)p1​i1∑p​∣h(xi​)ΔYi​∣ Δ \Delta Δ表示两个集合的对称差返回只在其中一个集合出现的那些值。Accuracy, Precision, Recall, F值单标签学习中准确率精准率召回率F值 A c c u r a c y ( h ) 1 p ∑ i 1 p ∣ h ( x i ) ∩ y i ∣ ∣ h ( x i ) ∪ y i ∣ Accuracy(h)\frac{1}{p}∑_{i1}^p\frac{∣h(x_i)∩y_i∣}{|h(x_i)∪y_i|} Accuracy(h)p1​i1∑p​∣h(xi​)∪yi​∣∣h(xi​)∩yi​∣​ P r e c i s i o n ( h ) 1 p ∑ i 1 p Y i ∩ h ( x i ) h ( x i ) Precision(h) \frac{1}{p}\sum_{i1}^p\frac{Y_i \cap h(x_i)}{h(x_i)} Precision(h)p1​i1∑p​h(xi​)Yi​∩h(xi​)​ R e c a l l 1 p ∑ i 1 p Y i ∩ h ( x i ) Y i Recall \frac{1}{p}\sum_{i1}^p\frac{Y_i \cap h(x_i)}{Y_i} Recallp1​i1∑p​Yi​Yi​∩h(xi​)​ F 1 β 2 ⋅ P r e c i s i o n ( h ) ⋅ R e c a l l ( h ) β 2 ⋅ ( P r e c i s i o n ( h ) R e c a l l ( h ) ) F \frac{1 \beta^2 \cdot Precision(h) \cdot Recall(h)}{\beta^2 \cdot (Precision(h) Recall(h))} Fβ2⋅(Precision(h)Recall(h))1β2⋅Precision(h)⋅Recall(h)​one-error(“预测到的最相关的标签” 不在 “真实标签”中的样本占比。值越小表现越好) o n e − e r r o r ( f ) 1 p ∑ i 1 p [ a r g m a x y ∈ Y f ( x i , y ) ∉ Y i ] one-error(f) \frac{1}{p}\sum_{i1}^p[argmax_{y \in Y}f(x_i, y)\notin Y_i] one−error(f)p1​i1∑p​[argmaxy∈Y​f(xi​,y)∈/Yi​]Coverage值越小表现越好) c o v e r a g e ( f ) 1 p ∑ i p m a x y ∈ Y i r a n k f ( x i , y ) − 1 coverage(f) \frac{1}{p}\sum_{i}^p max_{y \in Y_i } rank_{f_(x_i,y)}-1 coverage(f)p1​i∑p​maxy∈Yi​​rankf(​xi​,y)​−1Ranking loss值越小表现越好) r l o s s ( f ) 1 p ∑ i 1 p 1 ∣ Y i ∣ ∣ Y ^ i ∣ ∣ { ( y ′ , y ′ ′ ) ∣ f ( x i , y ′ ) ≤ f ( x i , y ′ ′ ) , ( y ′ , y ′ ′ ) ∈ Y i × Y ^ i } ∣ rloss(f) \frac{1}{p}\sum_{i1}^p \frac{1}{|Y_i| |\hat Y_i|} |\{(y,y^{})|f(x_i, y) \leq f(x_i, y^{}),(y, y^{}) \in Y_i \times \hat Y_i \}| rloss(f)p1​i1∑p​∣Yi​∣∣Y^i​∣1​∣{(y′,y′′)∣f(xi​,y′)≤f(xi​,y′′),(y′,y′′)∈Yi​×Y^i​}∣Average Precision(度量比特定标签更相关的那些标签的排名的占比,越大越好) a v g p r e c ( f ) 1 p ∑ i 1 p 1 ∣ Y i ∣ ∑ y ∈ Y i ∣ y ′ ∣ r a n k f ( x , y ′ ) ≤ r a n k f ( x i , y ) , y ′ ∈ Y i ∣ r a n k f ( x i , y ) avgprec(f)\frac{1}{p}\sum_{i1}^p\frac{1}{|Y_i|}\sum_{y \in Y_i}\frac{|{y|rank_f(x,y) \leq rank_f(x_i,y),y\in Y_i }|}{rank_{f(x_i,y)}} avgprec(f)p1​i1∑p​∣Yi​∣1​y∈Yi​∑​rankf(xi​,y)​∣y′∣rankf​(x,y′)≤rankf​(xi​,y),y′∈Yi​∣​ 基于标签的评价指标分类评价指标 对于每个标签都可以得到 T P , F P , T N , F N TP, FP, TN, FN TP,FP,TN,FN 用 B ( T P j , F P j , T N j , F N j ) B(TP_j, FP_j, TN_j, FN_j) B(TPj​,FPj​,TNj​,FNj​)表示特定的二元分类度量 B ∈ { A c c u r a c y , P r e c i s i o n , R e c a l l , F β } B \in \{Accuracy, Precision, Recall, F^{\beta}\} B∈{Accuracy,Precision,Recall,Fβ}label-based的分类可以通过两种方式得到 Macro-averaging(宏平均先对单个标签下的数量特征计算得到常规指标再对多个标签取平均) B m a c r o ( h ) 1 q ∑ j 1 q B ( T P j , F P j , T N j , F N j ) B_{macro(h)} \frac{1}{q}\sum_{j1}^qB(TP_j,FP_j,TN_j,FN_j) Bmacro(h)​q1​j1∑q​B(TPj​,FPj​,TNj​,FNj​)Micro-averaging(微平均对数据集中的每一个实例不分类别进行统计建立全局混淆矩阵然后计算相应指标 B m i c r o ( h ) B ( ∑ j 1 q T P j , ∑ j 1 q F P j , ∑ j 1 q T N j , ∑ j 1 q F N j ) B_{micro(h)} B(\sum_{j1}^q TP_j, \sum_{j1}^q FP_j, \sum_{j1}^q TN_j, \sum_{j1}^q FN_j) Bmicro(h)​B(j1∑q​TPj​,j1∑q​FPj​,j1∑q​TNj​,j1∑q​FNj​) 排序评价指标 rank metric AUC-macro“排序正确”的数据对的占比,先对单个标签计算再平均 A U C m a c r o 1 q ∑ j 1 q A U C j 1 q ∑ i 1 q ∣ { ( x ′ , x ′ ′ ) ∣ f ( x ′ , y j ) ≥ f ( x ′ , y j ) , ( x ′ , x ′ ′ ) ∈ Z j × Z ^ j } ∣ ∣ Z j ∣ ∣ Z ^ j ∣ AUC_{macro} \frac{1}{q}\sum_{j1}^q AUC_j \frac{1}{q}\sum_{i1}^q\frac{|\{(x, x)|f(x,y_j) \geq f(x,y_j), (x, x) \in Z_j \times \hat Z_j\}|}{|Z_j||\hat Z_j|} AUCmacro​q1​j1∑q​AUCj​q1​i1∑q​∣Zj​∣∣Z^j​∣∣{(x′,x′′)∣f(x′,yj​)≥f(x′,yj​),(x′,x′′)∈Zj​×Z^j​}∣​ Z j { x i ∣ y j ∈ Y i , 1 ≤ i ≤ p } Z_j \{x_i|y_j \in Y_i, 1\leq i \leq p\} Zj​{xi​∣yj​∈Yi​,1≤i≤p}表示的是含有 y j y_j yj​标签的样本数量 Z ^ j { x i ∣ y j ∉ Y i , 1 ≤ i ≤ p } \hat Z_j \{x_i|y_j \notin Y_i, 1\leq i \leq p\} Z^j​{xi​∣yj​∈/Yi​,1≤i≤p}表示的是不含有 y j y_j yj​标签的样本数量 AUC-micro(“排序正确”的数据对的占比把多个标签考虑在内来计算占比) A U C m i c r o 1 q ∑ j 1 q A U C j 1 q ∑ i 1 q ∣ { ( x ′ , x ′ ′ , y ′ , y ′ ′ ) ∣ f ( x ′ , y ′ ) ≥ f ( x ′ ′ , y ′ ′ ) , ( x ′ , y ′ ) ∈ S , ( x ′ ′ , y ′ ′ ) ∈ S − } ∣ ∣ S ∣ ∣ S − ∣ AUC_{micro} \frac{1}{q}\sum_{j1}^q AUC_j \frac{1}{q}\sum_{i1}^q\frac{|\{(x, x, y, y)|f(x,y) \geq f(x,y),(x,y)\in S^,(x, y) \in S^-\}|}{|S^||S^-|} AUCmicro​q1​j1∑q​AUCj​q1​i1∑q​∣S∣∣S−∣∣{(x′,x′′,y′,y′′)∣f(x′,y′)≥f(x′′,y′′),(x′,y′)∈S,(x′′,y′′)∈S−}∣​ S ( x i , y ) ∣ y ∈ Y i , 1 ≤ i ≤ p S^ {(x_i, y)|y\in Y_i, 1 \leq i \leq p} S(xi​,y)∣y∈Yi​,1≤i≤p表示的是相关的样本标签对 S − ( x i , y ) ∣ y ∉ Y i , 1 ≤ i ≤ p S^- {(x_i, y)|y\notin Y_i, 1 \leq i \leq p} S−(xi​,y)∣y∈/Yi​,1≤i≤p表示的是不相关的样本标签对 三、多分类学习算法 两种学习方法 问题转换法让数据适应算法 把多标签分类转为其他成熟的场景。代表算法有一阶binary revevance和高阶方法classifier chains。他们将多标签问题转为二分类。二阶方法有calibrated label ranking。将多标签分类转为标签排序高阶方法radom k-labelset将多标签学习转为多分类问题。算法改编方法让算法适应数据 更改学习技术来应对多标签数据。代表算法包括一阶方法ML-knn改编k近邻一阶方法ML-DT改编决策树二阶方法Rank-SVM改编核技巧二阶方法CML改编information-theretic techniques。
http://wiki.neutronadmin.com/news/117801/

相关文章:

  • 长春网站网站建设西安网站建设工程
  • 网站建设及服务合同常用网站建设技术是什么
  • 做海报在哪个网站可以找素材建网站现软件
  • 做网站游戏的网站有哪些图片网站建设方案
  • 盗版小说网站怎么赚钱徐州营销型网站制使
  • 华大基因 建设网站做网站源代码需要买吗
  • 第三方开放平台有哪些网络seo啥意思
  • 制作个人博客网站个人网站建设知乎
  • 优秀的店面空间设计网站网站数据库建设计划书
  • 网站建设优化服务资讯烟台开发区建设业联合会网站
  • flash网站开发教程潍坊网站建设 潍坊做网站
  • oss做网站网架结构厂家
  • 用百度云服务器做网站seo怎么做
  • 域名建网站公司网页设计入门与应用电子书pdf百度网盘
  • 两学一做 网站源码区域工业互联网平台
  • 旅游网站建设经费预算运动分类的网站设计论文
  • 网站外贸推广html5网站设计
  • 上虞宇普电器网站建设农业网站建设策划书
  • 做百度网站接到多少客户电话号码建设个网站需要什么
  • 网站建设 百度文库门户网站的布局
  • 好网站开发策划要求建设银行不良资产处置网站
  • 玩具网站建设方案企业网站源码变现方法
  • 网站开发工程师薪酬待遇华为公司网站建设相关内容
  • 湘潭网站建设问下磐石网络国际数据公司idc
  • wordpress手机端底部按钮长沙网站排名优化费用
  • 建设网站要钱吗pc网站开发使用什么布局好
  • 深圳网站制作公司兴田德润官网多少招聘网站内容建设
  • 上海做原创网站网站开发 脚本之家
  • 查找邮箱注册过的网站福建省建设厅网站节能办
  • 深圳网站美化福州房产网站建设