当前位置: 首页 > news >正文

福建建设局网站招标私自做彩票网站销售犯法么

福建建设局网站招标,私自做彩票网站销售犯法么,推广分享,自己做的网站怎么放到网上去torch分布式数据并行DDPtorch.nn.parallel.DistributedDataParallel代码修改记录。#xff08;要求pytorch_version1.0#xff09; 目录 1.#x1f344;#x1f344;要修改的地方概览 2.✏️✏️初始化 3.✏️✏️设置当前进程GPU 4.✏️✏️设置sampler 5.✏️✏… torch分布式数据并行DDPtorch.nn.parallel.DistributedDataParallel代码修改记录。要求pytorch_version1.0 目录 1.要修改的地方概览 2.✏️✏️初始化 3.✏️✏️设置当前进程GPU 4.✏️✏️设置sampler 5.✏️✏️sampler传入dataloader 6.✏️✏️数据放GPU 7.✏️✏️模型放GPU 8.✏️✏️load模型 9.✏️✏️save模型 10.✏️✏️执行命令 整理不易欢迎一键三连 1.要修改的地方概览 2.✏️✏️初始化 在代码最开始的地方设置初始化参数即训练和数据组织之前。 n_gpus args.n_gpus #自行传入 #local_rank args.local_rank #自行传入 local_rank int(os.environ[LOCAL_RANK]) #代码计算torch.distributed.init_process_group(nccl, world_sizen_gpus, ranklocal_rank)#初始化进程组 指定GPU之间的通信方式ncclworld_size当前这个节点上要用多少GPU卡当前节点就是当前机器rank: 当前进程在哪个GPU卡上通过args.local_rank来获取local_rank变量是通过外部指令传入的也可以通过环境变量来接收 注意自行传入的变量需要通过argparse第三方库写入示例如下 import argparseparser argparse.ArgumentParser() parser.add_argument(--n_gpus, helpnum of gpus) parser.add_argument(-p, --project, helpproject name) parser.add_argument(-s, --sparse, actionstore_true, defaultFalse, helpGAT with sparse version or not.) parser.add_argument(-d, --seed, typeint, default72, helpRandom seed.) parser.add_argument(-e, --epochs, typeint, default10000, helpNumber of epochs to train.)args parser.parse_args() print(args.n_gpus) print(args.sparse) print(args.seed) print(args.epochs)3.✏️✏️设置当前进程GPU 在初始化之后紧接着设置当前进程的GPU torch.cuda.set_device(local_rank) 上述指令作用相当于设置CUDA_VISBLE_DEVICES环境变量设置当前进程要用第几张卡 4.✏️✏️设置sampler from torch.utils.data.distributed import DistributedSampler train_sampler DistributedSampler(dataset_train) ... for epoch in range(start_epoch, total_epochs):train_sampler.set_epoch(epoch) #为了让每张卡在每个周期中得到的数据是随机的... 此处的train_dataset为load数据的Dataset类根据数据地址return出每个image和队形的maskDistributedSampler返回一堆数据的索引train_sampler根据索引去dataloader中拿数据并且在每次epoch训练之前加上train_sampler.set_epoch(epoch)这句达到shuffleTrue的目的。 5.✏️✏️sampler传入dataloader from torch.utils.data import DataLoader dataloader_train DataLoader(dataset_train, batch_sizeargs.batch_size,sampler train_sampler) dataloader_val DataLoader(dataset_val,batch_size1,) 通过将train_sampler传入dataloader达到数据传入模型的数据格式。 6.✏️✏️数据放GPU 在每次训练过程中设置数据放GPU里。 for img,label in dataloader_train:inputs img.cuda(local_rank) #数据放GPUlabels label.cuda(local_rank) #数据放GPU... 7.✏️✏️模型放GPU 在定义模型的地方设置将模型放入GPU model XXNet() net torch.nn.parallel.DistributedDataParallel(model.cuda(local_rank),device_ids[local_rank]) #模型拷贝放入DistributedDataParallel 8.✏️✏️load模型 torch.load(model_file_path, map_location local_rank) 设置 map_location指定将模型传入哪个GPU上 9.✏️✏️save模型 torch.save(net.module.state_dict(), os.path.join(ckp_savepath, ckp_name)) 注意此处保存的net是net.module.state_dict 10.✏️✏️执行命令 python -m torch.distributed.launch --nproc_per_noden_gpus --master_port 29502 train.pynproc_per_node等于GPU数量master_port默认为29501如果出现address already in use可以将其修改为其他值比如29502 参考视频讲解 整理不易欢迎一键三连 送你们一条美丽的--分割线-- ⛵⛵⭐⭐
http://wiki.neutronadmin.com/news/10896/

相关文章:

  • 优化排名对网站不好中英繁网站源码
  • 密云建设网站公司国内做网站好的公司
  • 网站建设与文字的工作广州网站建设乐云seo
  • 陈村网站开发wordpress 2017
  • 建设网站的价格是多少钱免费网站正能量软件
  • 网站建设每年需要交多少钱wordpress博客导出
  • iis 发布asp网站西安网站建设网站推广
  • 帮别人做网站维护违法上海市工程建设
  • 深圳外贸网站建设公司价格投资理财网站建设规划书
  • 做课题的网站有多少是备案的哪个网站做照片书最好
  • 石家庄网站排名优化哪家好广州门户网站制作公司
  • 文化类网站是不是休闲娱乐类网站网站原创内容优化
  • 建立网站要多少钱专业的网站建设多少钱
  • 厦工品牌网站设计360做网站吗
  • 虚拟服务器和如何创建网站专业的设计网站有哪些
  • 网站后台如何做下载连接本地营销型网站建设
  • 网站做支付宝接口江苏省城乡建设网站
  • 广东网站备案网络营销就是网上消售吗
  • 网站开发课程改革wordpress修改生效
  • wordpress mofileseo外链优化方法
  • wordpress的vps建站流程百度地图关键词优化
  • 网站 语言选择网站建设全程揭秘pdf
  • 校园网站建设特色怎么做网站二维码
  • 网站页面设计稿线上推广方法
  • 门户网站建设要求目前做啥网站致富
  • app网站如何做推广方案cms建站系统开源
  • 北京的电商平台网站有哪些内容网络推广员每天的工作是什么
  • 淄博做网站wordpress纯代码屏蔽谷歌字体
  • 可以做网站吗wordpress列表分页
  • 傻瓜式网站制作网站开发5人小组分工