当前位置: 首页 > news >正文

postgresql做网站用什么环境什么网站做adsense好

postgresql做网站用什么环境,什么网站做adsense好,人人建站,营商环境建设监督局网站英伟达结构化剪枝工具Nvidia Apex Automatic Sparsity [ASP]#xff08;1#xff09;——使用方法 Apex是Nvdia维护的pytorch工具库#xff0c;包括混合精度训练和分布式训练#xff0c;Apex的目的是为了让用户能够更早的使用上这些“新鲜出炉”的训练工具。ASP#xff0…英伟达结构化剪枝工具Nvidia Apex Automatic Sparsity [ASP]1——使用方法 Apex是Nvdia维护的pytorch工具库包括混合精度训练和分布式训练Apex的目的是为了让用户能够更早的使用上这些“新鲜出炉”的训练工具。ASPAutomatic Sparsity是Nvidia Apex模块中用于模型稀疏剪枝的算法 项目地址NVIDIA/apex: A PyTorch Extension: Tools for easy mixed precision and distributed training in Pytorch (github.com) 本文主要介绍的是ASP中的一个用于模型剪枝的模块ASP(Automatic sparsity)该模块仅仅向python模型训练文件中添加两行代码来实现模型的24稀疏剪枝同时还可以通过开启通道置换算法将绝对值较大的参数进行保留以求对模型精度的影响最小化。 项目地址项目 论文链接论文 Installation 从github clone源码安装需要checkout到23.05的tag git clone https://github.com/NVIDIA/apex.git cd apex git checkout 23.05 pip install -v --disable-pip-version-check --no-cache-dir --global-option--cpp_ext --global-option--cuda_ext --global-option--permutation_search ./Usage 使用ASP对模型进行稀疏化只需要两步 # 1. 导入sparsity模块 from apex.contrib.sparsity import ASP # 2. 使用ASP来模型和优化器进行稀疏化 ASP.prune_trained_model(model, optimizer)prune_trained_model函数会计算出稀疏mask并将其施加在模型的权重上。 整体而言通常需要在对模型稀疏化后重新进行训练整个过程可以表示为 ASP.prune_trained_model(model, optimizer)x, y DataLoader(args) for epoch in range(epochs):y_pred model(x)loss loss_function(y_pred, y)loss.backward()optimizer.step()torch.save(...)非标准用法 ASP还可以用来为模型生成稀疏的随机化参数从而进行更加复杂高级的实验如果在两个step之间重新计算权重的稀疏矩阵可以通过在训练的step之间调用ASP.recompute_sparse_masks函数来为模型重新生成稀疏mask。 Channel Permutation 该项目还可以通过开启通道置换算法来为结构化稀疏后的模型保留最大的精度值。 通道置换算法顾名思义就是通过沿着权重矩阵的通道维度进行置换并对其周围的模型层进行适当调整。 如果开启通道置换算法那么最终的模型精度与置换算法的质量之间存在很大关系置换的过程可以通过Apex CUDA拓展来进行加速否则时间会非常的久。 在Installation步骤中参数--global-option--permutation_search即是用于安装permutation search CUDA extension 。 如果不希望开启通道置换算法可以在ASP.init_model_for_pruning方法中将参数allow_permutation的值设置为False即可这一点在后续的源代码分析中也会提到。 需要注意的是当使用多个GPU时需要为所有的GPU设置相同的随机种子通过permutation_lib.py中的 set_identical_seed来进行设置。 import torch import numpy import randomtorch.manual_seed(identical_seed) torch.cuda.manual_seed_all(identical_seed) numpy.random.seed(identical_seed) random.seed(identical_seed) torch.backends.cudnn.deterministic True torch.backends.cudnn.benchmark FalseTips 在使用ASP对一个新的未经过稀疏的推理模型启用结构化稀疏时需要同时调用init_model_for_pruning和compute_sparse_masks方法。init_model_for_pruning会为模型层添加新的mask buffer用于保存compute_sparse_masks生成的mask因此调用了compute_sparse_masks后的模型的state_dict会比之前多出一些数据这些数据均以_mma_mask结尾的名字进行命名。对于已经使用ASP enable了结构化稀疏的模型在保存后重新加载时需要先创建一个新的模型并调用init_model_for_pruning方法为模型添加mask buffer后再load模型的state_dict否则因为新模型的state_dict和之前保存的state_dict不同而报错。 Example: 写了一个简单的Conv-FC网络训练后使用ASP进行剪枝随后再次进行训练 import torch import torch.nn as nn import torch.optim as optim import torchvision import torchvision.transforms as transforms from apex.contrib.sparsity import ASP# 定义卷积神经网络模型 class ConvNet(nn.Module):def __init__(self):super(ConvNet, self).__init__()self.conv1 nn.Conv2d(1, 16, 3, padding1)self.relu1 nn.ReLU()self.pool1 nn.MaxPool2d(2, 2)self.conv2 nn.Conv2d(16, 32, 3, padding1)self.relu2 nn.ReLU()self.pool2 nn.MaxPool2d(2, 2)self.fc1 nn.Linear(32 * 7 * 7, 128)self.relu3 nn.ReLU()self.fc2 nn.Linear(128, 10)self.sig nn.Sigmoid()def forward(self, x):x self.pool1(self.relu1(self.conv1(x)))x self.pool2(self.relu2(self.conv2(x)))x x.view(-1, 32 * 7 * 7)x self.relu3(self.fc1(x))x self.fc2(x)x self.sig(x)return xdef train_loop(model, optimizer, criterion):num_epochs 1for epoch in range(num_epochs):running_loss 0.0for i, data in enumerate(trainloader, 0):inputs, labels data[0].to(device), data[1].to(device)optimizer.zero_grad()outputs model(inputs)loss criterion(outputs, labels)loss.backward()optimizer.step()running_loss loss.item()if i % 100 99:print(fEpoch [{epoch1}/{num_epochs}], Batch [{i1}/{len(trainloader)}], Loss: {running_loss/100:.4f})running_loss 0.0def val(model):correct 0total 0model.eval()with torch.no_grad():for images, labels in testloader:images, labels images.to(device), labels.to(device)outputs model(images)_, predicted torch.max(outputs.data, 1)total labels.size(0)correct (predicted labels).sum().item()accuracy correct / total * 100print(Test Accuracy :{}%.format(accuracy))return accuracydef main():# 训练网络print(Begin to train the dense network!)train_loop(model, optimizer, criterion)print(Finish training the dense network!)accuracy_dense val(model)print(The accuracy of the trained dense network is : {}.format(accuracy_dense))torch.save(model.state_dict(), model_weights.pth)ASP.prune_trained_model(model, optimizer)accuracy_sparse val(model)print(The accuracy of the truned network is : {}.format(accuracy_sparse))print(Begin to train the sparse network!)train_loop(model, optimizer, criterion)print(Finish training the sparse network!)accuracy_sparse val(model)print(The accuracy of the trained sparse network is : {}.format(accuracy_sparse))torch.save(model.state_dict(), model_weights_sparse.pth)print(Training finished!)if __name__ __main__:transform transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.5,), (0.5,))])trainset torchvision.datasets.MNIST(root./data, trainTrue, downloadTrue, transformtransform)trainloader torch.utils.data.DataLoader(trainset, batch_size64, shuffleTrue)testset torchvision.datasets.MNIST(root./data, trainFalse, downloadTrue, transformtransform)testloader torch.utils.data.DataLoader(testset, batch_size64, shuffleFalse)device torch.device(cuda if torch.cuda.is_available() else cpu)model ConvNet().to(device)print(original weights has been saved!)criterion nn.CrossEntropyLoss()optimizer optim.SGD(model.parameters(), lr0.001, momentum0.9)main()运行结果 root:/home/shanlin/cnn_demo# python train.py Found permutation search CUDA kernels [ASP][Info] permutation_search_kernels can be imported. original weights has been saved! Begin to train the dense network! The accuracy of the trained dense network is : 94.77...The accuracy of the truned network is : 94.15...The accuracy of the trained sparse network is : 96.6 Training finished! root:/home/shanlin/cnn_demo# 可以看出第一次训练后accuracy达到了94.77剪枝后下降到了94.15再次训练后重新上升到了96.6比第一次训练还高应该是因为模型是随便写的且数据集太简单的原因
http://wiki.neutronadmin.com/news/186203/

相关文章:

  • 房地产集团网站欣赏服装设计公司图片
  • 营销型网站建设有哪些平台百度收录批量查询
  • 化妆品网站html模板羽毛球赛事安排
  • 南京建设项目环评公示期网站扁平手机网站
  • 医院网站 整站源码西安装修行业网站建设
  • 网站怎么做才能赚钱dz如何做门户网站
  • 百度云如何建设网站微信开发文档官网
  • 湛江市品牌网站建设怎么样互联网营销怎么赚钱
  • 南京做网站找哪家好安阳做网站哪家好
  • wordpress留言发送邮件给网站做排名优化学什么好处
  • 国外优秀app设计网站番禺建设网站服务
  • 做平面的网站cms 网站建设
  • 网站开发行情建设通网站上线
  • wordpress 音乐网百度seo优化教程免费
  • 企业首次建设网站方案流程招聘网站建设流程图
  • server 2008 r2搭建网站教育培训网站排名
  • 学校网站如何做做网站用什么系统
  • 做视频网站要多大的主机手机h5页面制作软件
  • 上海网站编辑招聘海南省城乡住房建设厅网站
  • php做一个网站福永网站建设公司哪家好
  • 网站内部seowordpress 忘记用户名
  • 网站建设调查表长臂挖机出租东莞网站建设
  • 知名网站设计互联网企业包括哪些行业
  • 一步步教你为网站开发android客户端眉山建设网站
  • 北京定制网站开发公司浩森宇特wordpress登陆后台总是跳转首页
  • 网络网站建设广州网店运营基础知识
  • 有什么网站可以做电子版邀请函茂名seo顾问服务
  • 手机购物网站怎么推广移动手机网站开发
  • 会员可见的网站开发公司 网站源码
  • 网站站长需要具备什么素质seo网络推广案例