当前位置: 首页 > news >正文

可视化拖拽建站系统域名在哪买

可视化拖拽建站系统,域名在哪买,学校网站建设工作总结,巢湖seo推广选哪家目录 简介工作重点方法CropBankFBRAFFRTwo-stage Pseudo-label Filtering 实验与SOTA比较消融实验 简介 题目#xff1a;《Semi-Supervised Object Detection with Adaptive Class-Rebalancing Self-Training》#xff0c;AAAI’22#xff0c; 基于自适应类再平衡自训练的半… 目录 简介工作重点方法CropBankFBRAFFRTwo-stage Pseudo-label Filtering 实验与SOTA比较消融实验 简介 题目《Semi-Supervised Object Detection with Adaptive Class-Rebalancing Self-Training》AAAI’22 基于自适应类再平衡自训练的半监督目标检测 日期2021.7.11(v1)2022.6.28(AAAI’22) 单位清华大学 论文地址https://arxiv.org/abs/2107.05031 GitHub- 作者 王斌清华大学软件学院副教授个人主页https://binwangthss.github.io/ 摘要 本研究深入研究了半监督对象检测SSOD以通过额外的未标记数据来提高检测器性能。最近通过自我训练实现了最先进的SSOD表演其中训练监督由GT和伪标签组成。在目前的研究中我们观察到SSOD中的类失衡严重阻碍了自我训练的有效性。为了解决类不平衡问题我们提出了一种新的内存模块CropBank的自适应类再平衡自训练ACRST。ACRST使用从CropBank中提取的前景实例自适应地重新平衡训练数据从而缓解类不平衡。由于检测任务的高度复杂性我们观察到自训练和数据再平衡在SSOD中都受到噪声伪标签的影响。因此我们提出了一种新的两阶段滤波算法来生成准确的伪标签。我们的方法在MS-COCO和VOC基准方面取得了令人满意的改进。当在MS-COCO中仅使用1%的标记数据时我们的方法比监督基线提高了17.02mAP与最先进的方法相比提高了5.32mAP。 大多数真实世界的检测数据集都有偏差的类分布其中很少的类占据了大多数实例即前景前景不平衡如图1a所示。而且为了获得准确的伪标签自我训练采用了高置信度阈值。该方案导致检测数据中前景实例分布稀疏即前景-背景不平衡见图1b Fig11%COCO标准中伪标签的类不平衡。GT是标记数据的真实标签伪标签由教师模型生成。 a 前景前景失衡在伪标签中加剧。 b前景背景失衡。在Faster RCNN中背景实例在伪标签的训练目标中占主导地位。 针对这两个问题提出了前景背景再平衡FBR和自适应前景前景再平衡AFFR 然而如图2所示伪标签的准确性是不可取的Recall明显低于ACC。为了获得准确的伪标签参考半监督的多标签学习SSMLL模块该模块提供与原始检测置信阈值互补的图像级约束。 v1因此我们利用额外的高级语义来过滤有噪声的伪标签。提出了一种半监督多标签分类模块用于为未标记的数据生成图像级伪标签。 设计了一个两阶段的过滤机制来过滤掉在分类置信度或多标签预测(v1:图像级伪标签)中激活负的伪标签。 Fig21%COCO-standard中每类伪标签的准确性和召回率 工作重点 我们设计了一个名为CropBank的新型存储模块用于区分检测数据中的前/背景和前/前景实例。通过CropBank我们进一步提出了自适应类再平衡自我训练ACRST以解决SSOD中的前景-背景和前景-前景不平衡问题。 提出了一个半监督多标签分类模块来从未标记的数据中挖掘高级语义。然后我们提出了一种具有分类置信度和高级语义的两阶段伪标签过滤机制。该机制在伪标签去噪中是有效的从而进一步促进FBR和AFFR。 所提出的数据再平衡和伪标签过滤算法对于任何基于自训练的SSOD框架来说都是即插即用的。此外CropBank提供了一种有效的检测专用数据增强算法。 方法 为了解耦这些纠缠我们引入了一种名为CropBank的新型内存模块用于在标记/未标记的数据中存储前景实例的GT/伪标签。利用CropBank我们提出了两种特定于检测的数据再平衡算法前景背景再平衡FBR和自适应前景前景再平衡AFFR。将原来的自我训练范式扩展到基于FBR和AFFR的自适应类再平衡自我训练ACRST。 FBR解决SSOD中的前背景不平衡问题。FBR首先根据CropBank中存储的GT/伪标签从整个数据集中提取前景实例。此后前景实例被增强并粘贴到训练图像中的随机位置。利用合成数据FBR可以提高训练目标中前景实例的比例缓解前景-背景的不平衡。 针对前景不平衡问题提出了基于FBR的前景自适应再平衡(AFFR)算法。特别地我们设计了一个称为伪召回的新标准来判断一个类在SSOD中是否被忽视或过度关注。此后由于较高的负置信度被忽略类的伪标签被更频繁地采样。因此整个数据集的前景重新平衡从而导致在随后的自我训练中为在线伪标记提供最小偏差检测器。 图3我们的半监督对象检测框架概述。教师模型从弱增广的未标记数据生成伪标签学生模型在具有基本事实和伪标签组合的强增广数据上进行训练。为了缓解SSOD中的类不平衡我们首先设计了一个名为CropBank的内存模块。然后将前景-背景再平衡FBR和自适应前景-前景再平衡AFFR应用于基于CropBank的自适应类再平衡自训练ACRST。我们还提出了一种两阶段伪标签过滤TPF方法和一种选择性监督方案以帮助ACRST并生成准确的伪标签。 Loss CropBank CropBank由两个子库组成即Label CropBank 和Pseudo CropBank 其中NL/NU表示Label /Pseudo CropBank的大小yli / yui表示第i个标记 / 未标记图像的gt / 伪标签。 在训练阶段ΦL一旦生成就被固定而ΦU在相互训练中用改进的伪标签定期更新。我们使用CropBank作为解耦实例的基础并设计自适应类再平衡自训练ACRST来解决类不平衡问题。 CropBank的构成是少量的GT和大量的伪标签 FBR foreground-background Rebalancing前景-背景重平衡 给定训练mini batch 我们根据采样分布P从每个图像xi的CropBank ΦL和ΦU中获取前景实例 的集合其中cj是从具有注释yj的原始图像中裁剪的前景实例。此后如下生成新的训练mini batch α粘贴对象的二进制掩码ymixi表示混合注释xmixi表示混合图像 cj基于CropBank中的实例级注释从图像中裁剪的矩形区域 在训练期间cj被扩充并随后被粘贴到xi的随机位置。这种组合过程增加了前景实例在训练数据中的比例用于前景-背景重平衡还从整体角度探索了基本的上下文语义。混合图像准备好后我们将它们作为Mean Teacher的管道来训练检测器。再平衡过程如图4所示。 AFFR Adaptive foreground-foregroundRebalancing自适应前景前景重平衡 在自我训练过程中被忽视的类中的样本被更频繁地选择。为了测量每一类的被忽略程度我们提出了一个新的标准伪召回PR。对于每个类别k我们根据经验使用低阈值0.1来过滤噪声预测。 使用PR我们设计了一种自适应样本策略 μk选择类k的实例的概率k类别的数量。β用于调整样本概率。 其中的PRk是累积来自教师检测器的针对每个前景实例的检测置信度 ski第i个伪标签的检测置信度。 PR定义了一个类在SSOD中被忽略的程度。高的PRk表明检测器对类k是肯定的甚至是过度自信的。因此应该将较低的样本概率分配给类k中的样本以避免过度拟合。低PRk意味着检测器对检测类k的实例缺乏信心。因此在随后的训练中应该更频繁地选择这些实例。 当类别被类似地忽略时较低的PR被自适应地分配给尾部类别并引起人们对它们越来越多的关注。PR的定义不依赖于任何未标记数据的先验信息。 该机制自适应地将较高/较低的采样率分配给被忽略/过度聚焦的实例。AFFR和FBR同时执行。 v1版本 提出了一种用于前景前景重平衡的自适应采样概率分布P。在训练过程中被忽略类中的样本被更频繁地选择。为了衡量一类的被忽视程度我们提出了一个新的标准pseudo recall伪召回PR它量化了伪标签与gt的比例。详细地我们根据标记数据和未标记数据之间的分布相似性从标记数据中估计未标记数据的类分布。假设数据集中有K个类{12…K}。我们将第k类的伪召回计算为 Nku / Nkl第k类的伪标签和gt的数量 r未标记数据与标记数据的比率 定义了在SSOD设置下一个类被忽略的程度。高PRk表明检测器对类k是肯定的甚至是过度自信的。因此应将较低的采样概率分配给类k中的样本以减轻过度拟合。相反低PRk意味着检测器对检测k类实例缺乏信心。因此我们应该经常选择这些实例。 作为一种解决方案我们根据伪召回按降序对类进行排序并设计以下自适应采样策略 μk选择第k类实例的概率β用于调整采样概率 该机制自适应地将较高/较低的采样率分配给被忽略/过度聚焦的实例。 这种机制的一个潜在问题是被忽略类中的伪标签的噪声被放大。因此提出了一种两阶段伪标签过滤机制 Two-stage Pseudo-label Filtering 两阶段伪标签过滤pipeline中杏黄和砖红的模块黄色就是最基础的置信度过滤红的标明的是高阶语义过滤其实就是设置一个图像级伪标签看成一个多标签分类问题预测图像级伪标签的置信度并进行过滤 半监督多标签分类 针对分类任务提出了基于Mean Teacher的半监督多标签分类模块。对于每个图像xi预测其图像级伪标签vi{lk}Kk1lk∈{0,1}其中k是总类别数lk确定图像中是否存在类k的实例。在训练阶段教师模型的预测被转换为监督学生模型的图像级伪标签。我们利用焦点-二进制-交叉熵(focal–binary–cross-entropy)损失来优化学生模型。 与SSOD相比SSMLL是一个容易得多的辅助任务并且能够为两阶段伪标签选择生成可靠的参考。请注意我们还扩展了ACRST以缓解SSMLL中的类不平衡并且由于步骤更少、输入大小更小和框架更简化SSMLL的总训练只需要SSOD的1/5分之一的时间。 两阶段伪标签过滤 对于来自教师模型的预测我们采用两阶段伪标签过滤方案来获得 置信度得分为s的精确伪标签和图像级伪标签v。在第一阶段 去除得分为sτcls 的预测以获得具有高对象性的伪标签。在第二阶段去除具有在v中激活为负的类的预测即激活值小于τml以获得具有正确类标签的伪标签。请注意我们使用消极而不是积极的多标签作为参考因为消极学习比积极学习具有更高的准确性和回忆力。 选择性监督 虽然之前SSOD研究中的边界框回归损失Liu et al.2021由于回归不准确而被消除但它们对我们的框架是有益的。我们将成功归功于CropBank它减轻了部分检测到的实例的噪声这些实例在有偏差的预测中占很大比例在1%COCO标准中为81.2%。使用这些嘈杂的伪标签盲目学习将严重恶化模型性能。然而在我们的工作中当从CropBank中部分检测到的实例被裁剪并粘贴到其他图像时它们在新的背景中变得独立和完整从而为回归学习提供了额外的准确监督。 在选择性监督的情况下方程5中的损失函数Lunsup可以表示如下 ~ yiss表示源自xiu的CropBank中的实例 实验 datasetMS-COCO和PASCAL VOC 实验细节 使用带FPN的Faster RCNN和ResNet50并在Detectron2的基础上构建我们的框架 标记和未标记图像的批量大小均为32。我们使用SGD优化器lr0.01动量率0.9。 设定λema0.9996τcls0.7λunsup4。设置β0.6τml0.2。 对于0.5/1/2/5/10%COCO标准预训练需要3000/5000/5000/10000步总训练需要180000步。 对于VOC预培训需要5000步总训练需要72000步。 我们对强增强应用颜色抖动、高斯模糊和剪切对弱增强应用随机调整大小和翻转、剪切。广泛使用的mAPAP50:95用作比较的度量。 对于SSMLL标记图像和未标记图像的批量大小均为64。 对于VOC/COCO-standard/COCO-addition预训练需要2k/2k/6k步总训练需要18k/36k/96k步使用lr1e-5的Adam优化器。数据扩充与SSOD相同但图像的大小调整为576*576。 v1: backboneFPN Faster RCNN和ResNet-50 ResNet-50使用ImageNet预训练的权重进行初始化。我们设置超参数λunsup2β2。对于两阶段伪标签滤波我们使用分类置信阈值τcls0.7和多标签置信阈值τml0.2。我们使用AP50:95即mAP作为评估指标。我们用所有训练设置的32个标记图像和32个未标记图像构建每个训练批次。 对于COCO-standard0.5/1/2/5/10%的COCO-standard的预训练阶段为2500/5000/10000/20000/40000步整个COCO标准训练阶段为180000步。对于COCOadditional预训练阶段需要90000个步骤总共需要270000个训练步骤。 对于VOC07和12预训练阶段需要12000步整个训练阶段需要36000步。 与SOTA比较 表1:在1%到10%的COCO-standard中与SOTA比较实验结果 表2:COCO-addition和0.5%COCO-standard与SOTA的比较。 表3VOC0712中与SOTA的比较实验结果。 消融实验 表41%COCO-standard下的消融实验。 来自具有大随机样本范围的Labeled和Pseudo-CropBank的采样实例实现了最高的mAP。 表5CropBank和样本范围的消融实验。 第k类的数量? 当β0时AFFR相当于均匀样品并降解为FBR。当β0.6较大时AFFR可提供1.04mAP的性能提升。注意当β0.4或β0.8时AFFR获得了类似的增益这些结果证明了AFFR对唯一的超参数β不敏感 表6AFFR中不同β值的结果。 如图4a所示在FBR之后前景实例的分布得到了重新平衡。 图4b表明当使用AFFR时KL散度从0.00024降低到0.00013。这一结果进一步证实了AFFR在处理伪标签中的前景-前景不平衡和生成无偏数据分布方面的有效性。 图4FBRa和AFFRb的消融实验。 Fig5a 具有/不具有两阶段伪标签过滤的伪标签的框精度。b 在有/没有选择性监督SS的情况下伪标签和GT之间的框mIoU。 如图5b所示选择性监督不断提高伪标签的mIoU。虽然选择性监督是利用SSOD中部分检测到的伪标签的有效方法但仍有改进的空间。例如当对象在伪标签中相互重叠时当前策略无法处理噪声。 图51%COCO-standard中Box准确性和Box mIoU的伪标签改进。 最常见和最罕见类别的消融研究。我们对所提出的模块对图中过度聚焦最频繁/被忽视最罕见类别的影响进行了另一项消融研究。图6a和b表明两阶段伪标签滤波TPF和ACRST在过聚焦/忽略类上都表现良好。如b所示ACRST在具有AFFR的被忽略类上实现了显著的改进而基线在最稀有的类中出现了性能下降。 图6TPF和ACRST对1%COCO标准中被忽视/过度关注类的影响。 在STAC框架上的消融 表71%COCO-standard上的STAC的消融实验 为了验证CropBank的有效性我们在表8中提供了来自Instant Teaching的结果Zhou et al.2021和不同的数据扩充。 在1%COCO-standard的不同数据扩充下的Instant Teaching性能。 具有不同τml和相应SSOD性能的半监督多标签学习SSMLL的结果。如表9所示SSMLL生成准确的图像级伪标签SSOD性能对τml不敏感。 当使用0.7阈值时正图像水平的伪标签不太准确准确度为0.740召回率为0.325。 表91%COCO-standard上图像级负伪标签的准确性和召回率。 阐明了使用否定伪标签而不是肯定伪标签作为参考的原因。我们提供了三种设置的结果1单阶段过滤检测置信度低的预测。2 两阶段过滤对检测置信度低或激活图像级伪标签中的负样本预测进行过滤。3 两阶段挖掘保留具有高检测置信度的预测或激活图像级伪标签中的正样本预测。 表10:1%COCO-standard伪标签的模型性能、准确性和召回率 Conclusion 本研究提出了一种简单而有效的ACRST来解决SSOD中的阶级失衡问题。通过CropBankACRST显著缓解了FBR和AFFR的前景-背景和前景-前景失衡。为了进一步改进FBR和AFFR我们设计了一种具有检测置信度和高级语义的两阶段伪标签过滤算法。经过对重新平衡的训练数据的迭代SSOD检测器变得无偏并逐渐改善模型性能。大量的实验证明了我们方法的有效性。
http://wiki.neutronadmin.com/news/349920/

相关文章:

  • 网站信息备案查询系统阿里巴巴对外贸易平台
  • 海北公司网站建设完全可定制的软件
  • 网站页面权重在阿里云做网站教程
  • 做网站需要的大图网络推广大概需要多少钱
  • 网站建设和推广电话销售话术网站建设好后能直接打开吗
  • 安徽网站开发与维护专业CDN 网站是否需要重新备案
  • 女性门户网站模板哔哩哔哩网页版打开
  • 网站建设 软件开发什么网站专做宠物物品
  • 西宁网站建设报价ew君博贴心2015网站备案没下来
  • 直播平台网站建设触屏手机网站设计
  • 比较好的高端网站制作公司呼和浩特免费制作网站
  • 网站建设和系统集成wordpress手机编辑器插件
  • 医疗 企业 网站制作泰安房产网
  • 网站建设公司怎么做的中铁三局招聘事件
  • 如何做彩票网站信息奉化市住房和城乡建设局网站
  • 钓鱼网站在线下载网站服务器出错了怎么办
  • 上海专业做网站较好的公司有哪些wordpress商品列表
  • 衣服定制的app有哪些seo外包杭州
  • 深圳旅游公司网站wordpress主题安装不
  • 手表网站建设规划书东道设计公司待遇如何
  • 网站发布 图片看不到开发公司解除前期物业服务合同
  • 做个人网站要多少钱如何把图片做网站背景
  • 哈尔滨做网站搭建的腾讯云服务器搭建网站
  • wordpress程序网站深圳网站建设的客户在哪里
  • 方特网站是谁做的flask网站开发源码
  • 大公司做网站网站logo上传
  • 营销策划推广公司seo优化排名平台
  • 扬州市建设工程造价管理站网站深圳市建工建设集团有限公司官网
  • 重庆汽车网站建设wordpress做付费下载站
  • vs 2017网站开发php淘宝网首页