当前位置: 首页 > news >正文

wordpress 获取tag名惠州网站建设优化

wordpress 获取tag名,惠州网站建设优化,光明新区住房和建设局网站,郑州网站制作推广目标检测系列的算法模型可以说是五花八门#xff0c;不同的系列有不同的理论依据#xff0c;DETR的亮点在于它是完全端到端的第一个目标检测模型#xff0c;DETR#xff08;Detection Transformer#xff09;是一种基于Transformer的目标检测模型#xff0c;由Facebook A…目标检测系列的算法模型可以说是五花八门不同的系列有不同的理论依据DETR的亮点在于它是完全端到端的第一个目标检测模型DETRDetection Transformer是一种基于Transformer的目标检测模型由Facebook AI Research开发。它采用了端到端的方法在目标检测任务中同时完成目标定位和分类。DETR模型结合了Transformer的自注意力机制和编码器-解码器结构。通过将图像作为输入并使用Transformer解码器来生成预测框和对应的类别。与传统的目标检测方法不同DETR不需要使用锚框或候选区域而是直接从全局观察中生成预测。 DETR模型的训练过程包括两个阶段首先使用交叉熵损失函数对预测框和类别进行监督学习然后使用匈牙利算法将预测框与真实框进行匹配计算IoU损失以进一步优化预测结果。DETR模型在目标检测任务上取得了很好的性能并且具有较高的效率和灵活性。它可以应用于多种场景如物体检测、实例分割等任务。 DETR官方项目地址在这里如下所示 目前已经有超过11.4k的star量足以见得这是一款很出色的检测模型了。 DETRDEtection TRansformer是一种基于Transformer的目标检测模型提供了PyTorch训练代码和预训练模型。它用Transformer替代了传统的复杂手工设计的目标检测流程并使用ResNet-50与Faster R-CNN进行比较在COCO数据集上以相同参数数量和一半计算量FLOPs下获得了42 AP的准确率。在只有50行PyTorch代码的情况下可以进行推断。 DETR的特点是将目标检测作为直接集合预测问题来处理它包括一个基于集合的全局损失函数通过二分图匹配强制生成唯一的预测结果以及一个Transformer编码器-解码器架构。给定一组固定的学习对象查询object queriesDETR根据对象之间的关系和全局图像上下文直接并行输出最终的预测结果。由于这种并行性质DETR非常快速高效。 关于代码我们认为目标检测不应该比分类更困难也不应该需要复杂的训练和推断库。DETR的实现和实验非常简单我们提供了一个独立的Colab Notebook在几行PyTorch代码中展示了如何使用DETR进行推断。训练代码也遵循这个思路它不是一个库而只是一个主要的.py文件导入模型和标准训练循环。此外我们还提供了Detectron2的封装位于d2/文件夹中。请参阅那里的自述文件以获取更多信息。 接下来我们来整体看下如何一步一步基于DETR开发构建自己的个性化目标检测模型。 一、下载准备项目 直接页面端安装红框所示点击即可下载源码项目到本地如下所示 解压缩如下所示 看起来比较乱这里删除掉不需要的文件精简一下如下所示 到这里项目下载准备工作已经完成了。 二、项目参数修改 这里主要是根据自己的数据集情况要做一些项目参数的配置修改首先到这里下载官方提供的预训练模型权重文件。如下所示 接下来编写下述代码来对预训练模型文件进行修改修改适配自己的数据集 import torchpretrained_weights torch.load(./detr-r50-e632da11.pth) num_class 1 1 pretrained_weights[model][class_embed.weight].resize_(num_class1,256) pretrained_weights[model][class_embed.bias].resize_(num_class1) torch.save(pretrained_weights,detr_r50_%d.pth%num_class) 这里的核心就是num_class这里我的类别只有一个所有就是1目标数量1背景根据自己的实际情况修改即可执行上述代码将会生成可用于训练自己数据集的预训练模型文件如下所示 接下来进入到models目录如下所示 来修改detr.py的源码 修改内容如下所示 同样也是根据自己的数据集的实际情况进行修改即可。 官方的实例都是以COCO数据集为基础的这里为了方便直接使用我的数据集我这里同时修改了datasets目录下的coco.py模块如下所示 这里不是必须的只是因为我前面写yolo系列的超详细教程的时候习惯了以0000目录为基准作为数据集的目录而已这个根据自己实际情况来就行。 0000/coco/目录下如下所示 annotations目录下如下所示 train和val目录都是图像数据目录。 到这里全部的数据集准备和参数修改配置就完成了。 三、模型训练 完成前面步骤一和步骤二之后就可以开始模型的训练工作了终端输入下面的命令即可 python3 main.py --dataset_file coco --coco_path /0000/coco --epoch 100 --lr1e-4 --batch_size2 --num_workers0 --output_diroutputs --resumeweights/detr_r50_2.pth终端日志输出如下所示 感觉这个日志输出的形式和yolo系列的模型风格差异还是很大的最开始使用的时候多多少少是有点不太适应的。 静静等待100次epoch训练完成后结果目录如下所示 这里我们看一个epoch的结果数据如下所示 {train_lr: 0.00010000000000000072, train_class_error: 8.246314652760823, train_loss: 11.92804820438226, train_loss_ce: 0.45436179675161836, train_loss_bbox: 0.19398587183095514, train_loss_giou: 1.2654916323721408, train_loss_ce_0: 0.6175143427525958, train_loss_bbox_0: 0.21694033461002013, train_loss_giou_0: 1.3583310965448618, train_loss_ce_1: 0.5325561841484159, train_loss_bbox_1: 0.19919901308603585, train_loss_giou_1: 1.2892874646931887, train_loss_ce_2: 0.49897560079116376, train_loss_bbox_2: 0.19595884778536857, train_loss_giou_2: 1.2676222202057639, train_loss_ce_3: 0.47517175901836406, train_loss_bbox_3: 0.19423701039825877, train_loss_giou_3: 1.2563509756699205, train_loss_ce_4: 0.457715673193646, train_loss_bbox_4: 0.19406218592387933, train_loss_giou_4: 1.2602861863871415, train_loss_ce_unscaled: 0.45436179675161836, train_class_error_unscaled: 8.246314652760823, train_loss_bbox_unscaled: 0.038797174374728155, train_loss_giou_unscaled: 0.6327458161860704, train_cardinality_error_unscaled: 25.414583333333333, train_loss_ce_0_unscaled: 0.6175143427525958, train_loss_bbox_0_unscaled: 0.04338806696857015, train_loss_giou_0_unscaled: 0.6791655482724309, train_cardinality_error_0_unscaled: 29.636458333333334, train_loss_ce_1_unscaled: 0.5325561841484159, train_loss_bbox_1_unscaled: 0.03983980262031158, train_loss_giou_1_unscaled: 0.6446437323465943, train_cardinality_error_1_unscaled: 27.819791666666667, train_loss_ce_2_unscaled: 0.49897560079116376, train_loss_bbox_2_unscaled: 0.03919176950973148, train_loss_giou_2_unscaled: 0.6338111101028819, train_cardinality_error_2_unscaled: 27.161458333333332, train_loss_ce_3_unscaled: 0.47517175901836406, train_loss_bbox_3_unscaled: 0.03884740209129329, train_loss_giou_3_unscaled: 0.6281754878349602, train_cardinality_error_3_unscaled: 26.110416666666666, train_loss_ce_4_unscaled: 0.457715673193646, train_loss_bbox_4_unscaled: 0.038812437271311256, train_loss_giou_4_unscaled: 0.6301430931935708, train_cardinality_error_4_unscaled: 25.4625, test_class_error: 3.091428756713867, test_loss: 10.50865466594696, test_loss_ce: 0.2767929275830587, test_loss_bbox: 0.14404282706479232, test_loss_giou: 1.2663704454898834, test_loss_ce_0: 0.3979991920292377, test_loss_bbox_0: 0.16362756925324598, test_loss_giou_0: 1.36108036339283, test_loss_ce_1: 0.3436319828033447, test_loss_bbox_1: 0.1497225967546304, test_loss_giou_1: 1.3024949004252753, test_loss_ce_2: 0.30994254574179647, test_loss_bbox_2: 0.14414388077954451, test_loss_giou_2: 1.249400516351064, test_loss_ce_3: 0.2894516279300054, test_loss_bbox_3: 0.144076735774676, test_loss_giou_3: 1.270151581366857, test_loss_ce_4: 0.2760662081340949, test_loss_bbox_4: 0.1443922327210506, test_loss_giou_4: 1.2752665122350058, test_loss_ce_unscaled: 0.2767929275830587, test_class_error_unscaled: 3.091428756713867, test_loss_bbox_unscaled: 0.028808565282573303, test_loss_giou_unscaled: 0.6331852227449417, test_cardinality_error_unscaled: 31.85, test_loss_ce_0_unscaled: 0.3979991920292377, test_loss_bbox_0_unscaled: 0.03272551361781855, test_loss_giou_0_unscaled: 0.680540181696415, test_cardinality_error_0_unscaled: 43.225, test_loss_ce_1_unscaled: 0.3436319828033447, test_loss_bbox_1_unscaled: 0.02994451941922307, test_loss_giou_1_unscaled: 0.6512474502126376, test_cardinality_error_1_unscaled: 39.733333333333334, test_loss_ce_2_unscaled: 0.30994254574179647, test_loss_bbox_2_unscaled: 0.02882877611555159, test_loss_giou_2_unscaled: 0.624700258175532, test_cardinality_error_2_unscaled: 37.733333333333334, test_loss_ce_3_unscaled: 0.2894516279300054, test_loss_bbox_3_unscaled: 0.028815347344304125, test_loss_giou_3_unscaled: 0.6350757906834285, test_cardinality_error_3_unscaled: 34.483333333333334, test_loss_ce_4_unscaled: 0.2760662081340949, test_loss_bbox_4_unscaled: 0.02887844655973216, test_loss_giou_4_unscaled: 0.6376332561175029, test_cardinality_error_4_unscaled: 31.533333333333335, test_coco_eval_bbox: [0.0784053628963453, 0.27165513666939684, 0.02143312972132683, 0.05011304279117235, 0.10950960486820328, 0.248747506997248, 0.01054397316079559, 0.07481428229091781, 0.18171579199616583, 0.13471350899205353, 0.2401053864168618, 0.3527027027027027], epoch: 0, n_parameters: 41279495} 可以看到这是一个标准的字典数据。 完成模型的训练之后就可以对模型进行评估测试了执行下述的命令 python3 main.py --batch_size 2 --no_aux_loss --eval --resume outputs/checkpoint.pth --coco_path /0000/coco 结果输出如下所示 Accumulating evaluation results... DONE (t0.12s). IoU metric: bboxAverage Precision (AP) [ IoU0.50:0.95 | area all | maxDets100 ] 0.249Average Precision (AP) [ IoU0.50 | area all | maxDets100 ] 0.614Average Precision (AP) [ IoU0.75 | area all | maxDets100 ] 0.147Average Precision (AP) [ IoU0.50:0.95 | area small | maxDets100 ] 0.156Average Precision (AP) [ IoU0.50:0.95 | areamedium | maxDets100 ] 0.356Average Precision (AP) [ IoU0.50:0.95 | area large | maxDets100 ] 0.548Average Recall (AR) [ IoU0.50:0.95 | area all | maxDets 1 ] 0.017Average Recall (AR) [ IoU0.50:0.95 | area all | maxDets 10 ] 0.142Average Recall (AR) [ IoU0.50:0.95 | area all | maxDets100 ] 0.362Average Recall (AR) [ IoU0.50:0.95 | area small | maxDets100 ] 0.279Average Recall (AR) [ IoU0.50:0.95 | areamedium | maxDets100 ] 0.468Average Recall (AR) [ IoU0.50:0.95 | area large | maxDets100 ] 0.622初步来看效果还不错不过跟yolo系列的模型实验结果对比起来还是逊色的。 到这里模型的开发训练和测试评估就结束了 四、训练可视化 想必到这里大家都意识到了DETR项目没有像YOLO那样的可视化功能所以想要有可视化指标的话还是需要自己去进行可视化绘图的。 这里仅仅是自己的简单绘图可以根据自己的需要自行实现即可。我将单个epoch训练日志数据进行解析如下所示 train_lr 0.00010000000000000072 train_class_error 8.246314652760823 train_loss 11.92804820438226 train_loss_ce 0.45436179675161836 train_loss_bbox 0.19398587183095514 train_loss_giou 1.2654916323721408 train_loss_ce_0 0.6175143427525958 train_loss_bbox_0 0.21694033461002013 train_loss_giou_0 1.3583310965448618 train_loss_ce_1 0.5325561841484159 train_loss_bbox_1 0.19919901308603585 train_loss_giou_1 1.2892874646931887 train_loss_ce_2 0.49897560079116376 train_loss_bbox_2 0.19595884778536857 train_loss_giou_2 1.2676222202057639 train_loss_ce_3 0.47517175901836406 train_loss_bbox_3 0.19423701039825877 train_loss_giou_3 1.2563509756699205 train_loss_ce_4 0.457715673193646 train_loss_bbox_4 0.19406218592387933 train_loss_giou_4 1.2602861863871415 train_loss_ce_unscaled 0.45436179675161836 train_class_error_unscaled 8.246314652760823 train_loss_bbox_unscaled 0.038797174374728155 train_loss_giou_unscaled 0.6327458161860704 train_cardinality_error_unscaled 25.414583333333333 train_loss_ce_0_unscaled 0.6175143427525958 train_loss_bbox_0_unscaled 0.04338806696857015 train_loss_giou_0_unscaled 0.6791655482724309 train_cardinality_error_0_unscaled 29.636458333333334 train_loss_ce_1_unscaled 0.5325561841484159 train_loss_bbox_1_unscaled 0.03983980262031158 train_loss_giou_1_unscaled 0.6446437323465943 train_cardinality_error_1_unscaled 27.819791666666667 train_loss_ce_2_unscaled 0.49897560079116376 train_loss_bbox_2_unscaled 0.03919176950973148 train_loss_giou_2_unscaled 0.6338111101028819 train_cardinality_error_2_unscaled 27.161458333333332 train_loss_ce_3_unscaled 0.47517175901836406 train_loss_bbox_3_unscaled 0.03884740209129329 train_loss_giou_3_unscaled 0.6281754878349602 train_cardinality_error_3_unscaled 26.110416666666666 train_loss_ce_4_unscaled 0.457715673193646 train_loss_bbox_4_unscaled 0.038812437271311256 train_loss_giou_4_unscaled 0.6301430931935708 train_cardinality_error_4_unscaled 25.4625 test_class_error 3.091428756713867 test_loss 10.50865466594696 test_loss_ce 0.2767929275830587 test_loss_bbox 0.14404282706479232 test_loss_giou 1.2663704454898834 test_loss_ce_0 0.3979991920292377 test_loss_bbox_0 0.16362756925324598 test_loss_giou_0 1.36108036339283 test_loss_ce_1 0.3436319828033447 test_loss_bbox_1 0.1497225967546304 test_loss_giou_1 1.3024949004252753 test_loss_ce_2 0.30994254574179647 test_loss_bbox_2 0.14414388077954451 test_loss_giou_2 1.249400516351064 test_loss_ce_3 0.2894516279300054 test_loss_bbox_3 0.144076735774676 test_loss_giou_3 1.270151581366857 test_loss_ce_4 0.2760662081340949 test_loss_bbox_4 0.1443922327210506 test_loss_giou_4 1.2752665122350058 test_loss_ce_unscaled 0.2767929275830587 test_class_error_unscaled 3.091428756713867 test_loss_bbox_unscaled 0.028808565282573303 test_loss_giou_unscaled 0.6331852227449417 test_cardinality_error_unscaled 31.85 test_loss_ce_0_unscaled 0.3979991920292377 test_loss_bbox_0_unscaled 0.03272551361781855 test_loss_giou_0_unscaled 0.680540181696415 test_cardinality_error_0_unscaled 43.225 test_loss_ce_1_unscaled 0.3436319828033447 test_loss_bbox_1_unscaled 0.02994451941922307 test_loss_giou_1_unscaled 0.6512474502126376 test_cardinality_error_1_unscaled 39.733333333333334 test_loss_ce_2_unscaled 0.30994254574179647 test_loss_bbox_2_unscaled 0.02882877611555159 test_loss_giou_2_unscaled 0.624700258175532 test_cardinality_error_2_unscaled 37.733333333333334 test_loss_ce_3_unscaled 0.2894516279300054 test_loss_bbox_3_unscaled 0.028815347344304125 test_loss_giou_3_unscaled 0.6350757906834285 test_cardinality_error_3_unscaled 34.483333333333334 test_loss_ce_4_unscaled 0.2760662081340949 test_loss_bbox_4_unscaled 0.02887844655973216 test_loss_giou_4_unscaled 0.6376332561175029 test_cardinality_error_4_unscaled 31.533333333333335 test_coco_eval_bbox [0.0784053628963453, 0.27165513666939684, 0.02143312972132683, 0.05011304279117235, 0.10950960486820328, 0.248747506997248, 0.01054397316079559, 0.07481428229091781, 0.18171579199616583, 0.13471350899205353, 0.2401053864168618, 0.3527027027027027] epoch 0 n_parameters 41279495 可以看到不同指标拆分得很细单个指标核心绘图实现很简单如下所示 plt.clf() plt.figure(figsize(10,8)) plt.plot(one_value) plt.title(one_key cruve) plt.savefig(outputs/pictures/one_key.jpg) 简单看下可视化结果 当然了还有很多很多这里不再一一展示了可以自行动手实践下即可 我这里绘制的很简单单个指标就是一幅图可以多个指标叠在一张图上面都是可以的感兴趣的话可以自己试试。 最后简单看下推理检测实例如下所示 到这里本文的实践就结束了感兴趣的话就自己动手试试吧。
http://wiki.neutronadmin.com/news/11001/

相关文章:

  • 帮人做项目的网站苏州网站制作网站建设
  • 北京网站制作应用wordpress怎么给会员加上期限
  • 网站建设的任务规划肇庆seo
  • 苏州高级网站建设做跨境都有哪些网站
  • 网站编辑没有经验可以做吗如何在本地安装部署 wordpress
  • 网站建设的细节处理深圳市交易服务中心
  • 河南省交通基本建设质量检测监督站网站集美网站建设
  • 网站建设区域加盟wordpress下载样式
  • 写代码做网站模型外包网站
  • 自己做免费手机网站专业网站运营设计
  • 优化排名对网站不好中英繁网站源码
  • 密云建设网站公司国内做网站好的公司
  • 网站建设与文字的工作广州网站建设乐云seo
  • 陈村网站开发wordpress 2017
  • 建设网站的价格是多少钱免费网站正能量软件
  • 网站建设每年需要交多少钱wordpress博客导出
  • iis 发布asp网站西安网站建设网站推广
  • 帮别人做网站维护违法上海市工程建设
  • 深圳外贸网站建设公司价格投资理财网站建设规划书
  • 做课题的网站有多少是备案的哪个网站做照片书最好
  • 石家庄网站排名优化哪家好广州门户网站制作公司
  • 文化类网站是不是休闲娱乐类网站网站原创内容优化
  • 建立网站要多少钱专业的网站建设多少钱
  • 厦工品牌网站设计360做网站吗
  • 虚拟服务器和如何创建网站专业的设计网站有哪些
  • 网站后台如何做下载连接本地营销型网站建设
  • 网站做支付宝接口江苏省城乡建设网站
  • 广东网站备案网络营销就是网上消售吗
  • 网站开发课程改革wordpress修改生效
  • wordpress mofileseo外链优化方法