当前位置: 首页 > news >正文

咸阳网站建设专业公司哪家好页面设置怎么设置

咸阳网站建设专业公司哪家好,页面设置怎么设置,展厅设计参考图,做网络推广可以通过哪些渠道推广目标检测系列的算法模型可以说是五花八门#xff0c;不同的系列有不同的理论依据#xff0c;DETR的亮点在于它是完全端到端的第一个目标检测模型#xff0c;DETR#xff08;Detection Transformer#xff09;是一种基于Transformer的目标检测模型#xff0c;由Facebook A…目标检测系列的算法模型可以说是五花八门不同的系列有不同的理论依据DETR的亮点在于它是完全端到端的第一个目标检测模型DETRDetection Transformer是一种基于Transformer的目标检测模型由Facebook AI Research开发。它采用了端到端的方法在目标检测任务中同时完成目标定位和分类。DETR模型结合了Transformer的自注意力机制和编码器-解码器结构。通过将图像作为输入并使用Transformer解码器来生成预测框和对应的类别。与传统的目标检测方法不同DETR不需要使用锚框或候选区域而是直接从全局观察中生成预测。 DETR模型的训练过程包括两个阶段首先使用交叉熵损失函数对预测框和类别进行监督学习然后使用匈牙利算法将预测框与真实框进行匹配计算IoU损失以进一步优化预测结果。DETR模型在目标检测任务上取得了很好的性能并且具有较高的效率和灵活性。它可以应用于多种场景如物体检测、实例分割等任务。 DETR官方项目地址在这里如下所示 目前已经有超过11.4k的star量足以见得这是一款很出色的检测模型了。 DETRDEtection TRansformer是一种基于Transformer的目标检测模型提供了PyTorch训练代码和预训练模型。它用Transformer替代了传统的复杂手工设计的目标检测流程并使用ResNet-50与Faster R-CNN进行比较在COCO数据集上以相同参数数量和一半计算量FLOPs下获得了42 AP的准确率。在只有50行PyTorch代码的情况下可以进行推断。 DETR的特点是将目标检测作为直接集合预测问题来处理它包括一个基于集合的全局损失函数通过二分图匹配强制生成唯一的预测结果以及一个Transformer编码器-解码器架构。给定一组固定的学习对象查询object queriesDETR根据对象之间的关系和全局图像上下文直接并行输出最终的预测结果。由于这种并行性质DETR非常快速高效。 关于代码我们认为目标检测不应该比分类更困难也不应该需要复杂的训练和推断库。DETR的实现和实验非常简单我们提供了一个独立的Colab Notebook在几行PyTorch代码中展示了如何使用DETR进行推断。训练代码也遵循这个思路它不是一个库而只是一个主要的.py文件导入模型和标准训练循环。此外我们还提供了Detectron2的封装位于d2/文件夹中。请参阅那里的自述文件以获取更多信息。 接下来我们来整体看下如何一步一步基于DETR开发构建自己的个性化目标检测模型。 一、下载准备项目 直接页面端安装红框所示点击即可下载源码项目到本地如下所示 解压缩如下所示 看起来比较乱这里删除掉不需要的文件精简一下如下所示 到这里项目下载准备工作已经完成了。 二、项目参数修改 这里主要是根据自己的数据集情况要做一些项目参数的配置修改首先到这里下载官方提供的预训练模型权重文件。如下所示 接下来编写下述代码来对预训练模型文件进行修改修改适配自己的数据集 import torchpretrained_weights torch.load(./detr-r50-e632da11.pth) num_class 1 1 pretrained_weights[model][class_embed.weight].resize_(num_class1,256) pretrained_weights[model][class_embed.bias].resize_(num_class1) torch.save(pretrained_weights,detr_r50_%d.pth%num_class) 这里的核心就是num_class这里我的类别只有一个所有就是1目标数量1背景根据自己的实际情况修改即可执行上述代码将会生成可用于训练自己数据集的预训练模型文件如下所示 接下来进入到models目录如下所示 来修改detr.py的源码 修改内容如下所示 同样也是根据自己的数据集的实际情况进行修改即可。 官方的实例都是以COCO数据集为基础的这里为了方便直接使用我的数据集我这里同时修改了datasets目录下的coco.py模块如下所示 这里不是必须的只是因为我前面写yolo系列的超详细教程的时候习惯了以0000目录为基准作为数据集的目录而已这个根据自己实际情况来就行。 0000/coco/目录下如下所示 annotations目录下如下所示 train和val目录都是图像数据目录。 到这里全部的数据集准备和参数修改配置就完成了。 三、模型训练 完成前面步骤一和步骤二之后就可以开始模型的训练工作了终端输入下面的命令即可 python3 main.py --dataset_file coco --coco_path /0000/coco --epoch 100 --lr1e-4 --batch_size2 --num_workers0 --output_diroutputs --resumeweights/detr_r50_2.pth终端日志输出如下所示 感觉这个日志输出的形式和yolo系列的模型风格差异还是很大的最开始使用的时候多多少少是有点不太适应的。 静静等待100次epoch训练完成后结果目录如下所示 这里我们看一个epoch的结果数据如下所示 {train_lr: 0.00010000000000000072, train_class_error: 8.246314652760823, train_loss: 11.92804820438226, train_loss_ce: 0.45436179675161836, train_loss_bbox: 0.19398587183095514, train_loss_giou: 1.2654916323721408, train_loss_ce_0: 0.6175143427525958, train_loss_bbox_0: 0.21694033461002013, train_loss_giou_0: 1.3583310965448618, train_loss_ce_1: 0.5325561841484159, train_loss_bbox_1: 0.19919901308603585, train_loss_giou_1: 1.2892874646931887, train_loss_ce_2: 0.49897560079116376, train_loss_bbox_2: 0.19595884778536857, train_loss_giou_2: 1.2676222202057639, train_loss_ce_3: 0.47517175901836406, train_loss_bbox_3: 0.19423701039825877, train_loss_giou_3: 1.2563509756699205, train_loss_ce_4: 0.457715673193646, train_loss_bbox_4: 0.19406218592387933, train_loss_giou_4: 1.2602861863871415, train_loss_ce_unscaled: 0.45436179675161836, train_class_error_unscaled: 8.246314652760823, train_loss_bbox_unscaled: 0.038797174374728155, train_loss_giou_unscaled: 0.6327458161860704, train_cardinality_error_unscaled: 25.414583333333333, train_loss_ce_0_unscaled: 0.6175143427525958, train_loss_bbox_0_unscaled: 0.04338806696857015, train_loss_giou_0_unscaled: 0.6791655482724309, train_cardinality_error_0_unscaled: 29.636458333333334, train_loss_ce_1_unscaled: 0.5325561841484159, train_loss_bbox_1_unscaled: 0.03983980262031158, train_loss_giou_1_unscaled: 0.6446437323465943, train_cardinality_error_1_unscaled: 27.819791666666667, train_loss_ce_2_unscaled: 0.49897560079116376, train_loss_bbox_2_unscaled: 0.03919176950973148, train_loss_giou_2_unscaled: 0.6338111101028819, train_cardinality_error_2_unscaled: 27.161458333333332, train_loss_ce_3_unscaled: 0.47517175901836406, train_loss_bbox_3_unscaled: 0.03884740209129329, train_loss_giou_3_unscaled: 0.6281754878349602, train_cardinality_error_3_unscaled: 26.110416666666666, train_loss_ce_4_unscaled: 0.457715673193646, train_loss_bbox_4_unscaled: 0.038812437271311256, train_loss_giou_4_unscaled: 0.6301430931935708, train_cardinality_error_4_unscaled: 25.4625, test_class_error: 3.091428756713867, test_loss: 10.50865466594696, test_loss_ce: 0.2767929275830587, test_loss_bbox: 0.14404282706479232, test_loss_giou: 1.2663704454898834, test_loss_ce_0: 0.3979991920292377, test_loss_bbox_0: 0.16362756925324598, test_loss_giou_0: 1.36108036339283, test_loss_ce_1: 0.3436319828033447, test_loss_bbox_1: 0.1497225967546304, test_loss_giou_1: 1.3024949004252753, test_loss_ce_2: 0.30994254574179647, test_loss_bbox_2: 0.14414388077954451, test_loss_giou_2: 1.249400516351064, test_loss_ce_3: 0.2894516279300054, test_loss_bbox_3: 0.144076735774676, test_loss_giou_3: 1.270151581366857, test_loss_ce_4: 0.2760662081340949, test_loss_bbox_4: 0.1443922327210506, test_loss_giou_4: 1.2752665122350058, test_loss_ce_unscaled: 0.2767929275830587, test_class_error_unscaled: 3.091428756713867, test_loss_bbox_unscaled: 0.028808565282573303, test_loss_giou_unscaled: 0.6331852227449417, test_cardinality_error_unscaled: 31.85, test_loss_ce_0_unscaled: 0.3979991920292377, test_loss_bbox_0_unscaled: 0.03272551361781855, test_loss_giou_0_unscaled: 0.680540181696415, test_cardinality_error_0_unscaled: 43.225, test_loss_ce_1_unscaled: 0.3436319828033447, test_loss_bbox_1_unscaled: 0.02994451941922307, test_loss_giou_1_unscaled: 0.6512474502126376, test_cardinality_error_1_unscaled: 39.733333333333334, test_loss_ce_2_unscaled: 0.30994254574179647, test_loss_bbox_2_unscaled: 0.02882877611555159, test_loss_giou_2_unscaled: 0.624700258175532, test_cardinality_error_2_unscaled: 37.733333333333334, test_loss_ce_3_unscaled: 0.2894516279300054, test_loss_bbox_3_unscaled: 0.028815347344304125, test_loss_giou_3_unscaled: 0.6350757906834285, test_cardinality_error_3_unscaled: 34.483333333333334, test_loss_ce_4_unscaled: 0.2760662081340949, test_loss_bbox_4_unscaled: 0.02887844655973216, test_loss_giou_4_unscaled: 0.6376332561175029, test_cardinality_error_4_unscaled: 31.533333333333335, test_coco_eval_bbox: [0.0784053628963453, 0.27165513666939684, 0.02143312972132683, 0.05011304279117235, 0.10950960486820328, 0.248747506997248, 0.01054397316079559, 0.07481428229091781, 0.18171579199616583, 0.13471350899205353, 0.2401053864168618, 0.3527027027027027], epoch: 0, n_parameters: 41279495} 可以看到这是一个标准的字典数据。 完成模型的训练之后就可以对模型进行评估测试了执行下述的命令 python3 main.py --batch_size 2 --no_aux_loss --eval --resume outputs/checkpoint.pth --coco_path /0000/coco 结果输出如下所示 Accumulating evaluation results... DONE (t0.12s). IoU metric: bboxAverage Precision (AP) [ IoU0.50:0.95 | area all | maxDets100 ] 0.249Average Precision (AP) [ IoU0.50 | area all | maxDets100 ] 0.614Average Precision (AP) [ IoU0.75 | area all | maxDets100 ] 0.147Average Precision (AP) [ IoU0.50:0.95 | area small | maxDets100 ] 0.156Average Precision (AP) [ IoU0.50:0.95 | areamedium | maxDets100 ] 0.356Average Precision (AP) [ IoU0.50:0.95 | area large | maxDets100 ] 0.548Average Recall (AR) [ IoU0.50:0.95 | area all | maxDets 1 ] 0.017Average Recall (AR) [ IoU0.50:0.95 | area all | maxDets 10 ] 0.142Average Recall (AR) [ IoU0.50:0.95 | area all | maxDets100 ] 0.362Average Recall (AR) [ IoU0.50:0.95 | area small | maxDets100 ] 0.279Average Recall (AR) [ IoU0.50:0.95 | areamedium | maxDets100 ] 0.468Average Recall (AR) [ IoU0.50:0.95 | area large | maxDets100 ] 0.622初步来看效果还不错不过跟yolo系列的模型实验结果对比起来还是逊色的。 到这里模型的开发训练和测试评估就结束了 四、训练可视化 想必到这里大家都意识到了DETR项目没有像YOLO那样的可视化功能所以想要有可视化指标的话还是需要自己去进行可视化绘图的。 这里仅仅是自己的简单绘图可以根据自己的需要自行实现即可。我将单个epoch训练日志数据进行解析如下所示 train_lr 0.00010000000000000072 train_class_error 8.246314652760823 train_loss 11.92804820438226 train_loss_ce 0.45436179675161836 train_loss_bbox 0.19398587183095514 train_loss_giou 1.2654916323721408 train_loss_ce_0 0.6175143427525958 train_loss_bbox_0 0.21694033461002013 train_loss_giou_0 1.3583310965448618 train_loss_ce_1 0.5325561841484159 train_loss_bbox_1 0.19919901308603585 train_loss_giou_1 1.2892874646931887 train_loss_ce_2 0.49897560079116376 train_loss_bbox_2 0.19595884778536857 train_loss_giou_2 1.2676222202057639 train_loss_ce_3 0.47517175901836406 train_loss_bbox_3 0.19423701039825877 train_loss_giou_3 1.2563509756699205 train_loss_ce_4 0.457715673193646 train_loss_bbox_4 0.19406218592387933 train_loss_giou_4 1.2602861863871415 train_loss_ce_unscaled 0.45436179675161836 train_class_error_unscaled 8.246314652760823 train_loss_bbox_unscaled 0.038797174374728155 train_loss_giou_unscaled 0.6327458161860704 train_cardinality_error_unscaled 25.414583333333333 train_loss_ce_0_unscaled 0.6175143427525958 train_loss_bbox_0_unscaled 0.04338806696857015 train_loss_giou_0_unscaled 0.6791655482724309 train_cardinality_error_0_unscaled 29.636458333333334 train_loss_ce_1_unscaled 0.5325561841484159 train_loss_bbox_1_unscaled 0.03983980262031158 train_loss_giou_1_unscaled 0.6446437323465943 train_cardinality_error_1_unscaled 27.819791666666667 train_loss_ce_2_unscaled 0.49897560079116376 train_loss_bbox_2_unscaled 0.03919176950973148 train_loss_giou_2_unscaled 0.6338111101028819 train_cardinality_error_2_unscaled 27.161458333333332 train_loss_ce_3_unscaled 0.47517175901836406 train_loss_bbox_3_unscaled 0.03884740209129329 train_loss_giou_3_unscaled 0.6281754878349602 train_cardinality_error_3_unscaled 26.110416666666666 train_loss_ce_4_unscaled 0.457715673193646 train_loss_bbox_4_unscaled 0.038812437271311256 train_loss_giou_4_unscaled 0.6301430931935708 train_cardinality_error_4_unscaled 25.4625 test_class_error 3.091428756713867 test_loss 10.50865466594696 test_loss_ce 0.2767929275830587 test_loss_bbox 0.14404282706479232 test_loss_giou 1.2663704454898834 test_loss_ce_0 0.3979991920292377 test_loss_bbox_0 0.16362756925324598 test_loss_giou_0 1.36108036339283 test_loss_ce_1 0.3436319828033447 test_loss_bbox_1 0.1497225967546304 test_loss_giou_1 1.3024949004252753 test_loss_ce_2 0.30994254574179647 test_loss_bbox_2 0.14414388077954451 test_loss_giou_2 1.249400516351064 test_loss_ce_3 0.2894516279300054 test_loss_bbox_3 0.144076735774676 test_loss_giou_3 1.270151581366857 test_loss_ce_4 0.2760662081340949 test_loss_bbox_4 0.1443922327210506 test_loss_giou_4 1.2752665122350058 test_loss_ce_unscaled 0.2767929275830587 test_class_error_unscaled 3.091428756713867 test_loss_bbox_unscaled 0.028808565282573303 test_loss_giou_unscaled 0.6331852227449417 test_cardinality_error_unscaled 31.85 test_loss_ce_0_unscaled 0.3979991920292377 test_loss_bbox_0_unscaled 0.03272551361781855 test_loss_giou_0_unscaled 0.680540181696415 test_cardinality_error_0_unscaled 43.225 test_loss_ce_1_unscaled 0.3436319828033447 test_loss_bbox_1_unscaled 0.02994451941922307 test_loss_giou_1_unscaled 0.6512474502126376 test_cardinality_error_1_unscaled 39.733333333333334 test_loss_ce_2_unscaled 0.30994254574179647 test_loss_bbox_2_unscaled 0.02882877611555159 test_loss_giou_2_unscaled 0.624700258175532 test_cardinality_error_2_unscaled 37.733333333333334 test_loss_ce_3_unscaled 0.2894516279300054 test_loss_bbox_3_unscaled 0.028815347344304125 test_loss_giou_3_unscaled 0.6350757906834285 test_cardinality_error_3_unscaled 34.483333333333334 test_loss_ce_4_unscaled 0.2760662081340949 test_loss_bbox_4_unscaled 0.02887844655973216 test_loss_giou_4_unscaled 0.6376332561175029 test_cardinality_error_4_unscaled 31.533333333333335 test_coco_eval_bbox [0.0784053628963453, 0.27165513666939684, 0.02143312972132683, 0.05011304279117235, 0.10950960486820328, 0.248747506997248, 0.01054397316079559, 0.07481428229091781, 0.18171579199616583, 0.13471350899205353, 0.2401053864168618, 0.3527027027027027] epoch 0 n_parameters 41279495 可以看到不同指标拆分得很细单个指标核心绘图实现很简单如下所示 plt.clf() plt.figure(figsize(10,8)) plt.plot(one_value) plt.title(one_key cruve) plt.savefig(outputs/pictures/one_key.jpg) 简单看下可视化结果 当然了还有很多很多这里不再一一展示了可以自行动手实践下即可 我这里绘制的很简单单个指标就是一幅图可以多个指标叠在一张图上面都是可以的感兴趣的话可以自己试试。 最后简单看下推理检测实例如下所示 到这里本文的实践就结束了感兴趣的话就自己动手试试吧。
http://wiki.neutronadmin.com/news/236491/

相关文章:

  • 医院网站HTML5湖南正规网络营销哪家便宜
  • wap多用户网站用linux做网站
  • 木工支模价格明细表seo营销学校
  • 做自己的视频网站河北网站建设免费推荐
  • 网站建设公司的服务公司网站开发技术视频教程
  • 做土地租赁买卖的网站有哪些温州15000 做网站的工作
  • 深圳做网站公司地点怎样把在本地安装好的wordpress上传到服务器
  • 怎么看一个网站是什么时候做的深圳手机端网站建设专业公司
  • 中建材建设有限公司网站地图定位网站开发
  • 什么是网站风格北京最新发布会直播
  • 手机网站建设制作教程视频wordpress网格化插件
  • 成立一个做网站的公司文档生成器app
  • 企业网站首页图片wordpress 解压
  • 做cpa广告建什么网站好友汇网站建设
  • 网站搜索优化技巧黑龙江快讯
  • wordpress整合vip解析seo推广公司价格
  • 网站建设 开票后端网站开发遇到的难题解决
  • 网站开发公司前置审批app和手机网站的区别
  • 让人做网站 需要准备什么条件建设网站全部流程
  • 网站商城建设费用安徽建设厅网站首页
  • 如何做网站卡密做导购网站多少钱
  • 个人网站用什么服务器自助个人免费网站
  • 内蒙古建设厅网站查询室内设计学徒有多坑
  • wordpress插件汉化教程湘潭企业seo优化哪家好
  • 山西长治做网站公司网站怎么做的支付宝
  • 有接口怎么做网站常州网站外包
  • 备案期间网站深圳 高端 建站公司
  • 兰州市建设局网站企业建设网站的需求分析
  • 基于php旅游网站的毕业设计平台软件开发
  • 网站带gov后缀一键生成广告