当前位置: 首页 > news >正文

公司网站备案号建设专业网站网络

公司网站备案号,建设专业网站网络,购物网站模板html,哈尔滨网站优化公司#x1f6a9;#x1f6a9;#x1f6a9;Hugging Face 实战系列 总目录 有任何问题欢迎在下面留言 本篇文章的代码运行界面均在PyCharm中进行 本篇文章配套的代码资源已经上传 从零构建属于自己的GPT系列1#xff1a;文本数据预处理 从零构建属于自己的GPT系列2#xff1a;语…Hugging Face 实战系列 总目录 有任何问题欢迎在下面留言 本篇文章的代码运行界面均在PyCharm中进行 本篇文章配套的代码资源已经上传 从零构建属于自己的GPT系列1文本数据预处理 从零构建属于自己的GPT系列2语言模型训练 3 数据加载函数 def load_dataset(logger, args):加载训练集logger.info(loading training dataset)train_path args.train_pathwith open(train_path, rb) as f:train_list pickle.load(f)# test# train_list train_list[:24]train_dataset CPMDataset(train_list, args.max_len)return train_datasetList item 4 训练函数 def train(model, logger, train_dataset, args):train_dataloader DataLoader(train_dataset, batch_sizeargs.batch_size, shuffleTrue, num_workersargs.num_workers, collate_fncollate_fn,drop_lastTrue)logger.info(total_steps:{}.format(len(train_dataloader)* args.epochs))t_total len(train_dataloader) // args.gradient_accumulation_steps * args.epochsoptimizer transformers.AdamW(model.parameters(), lrargs.lr, epsargs.eps)scheduler transformers.get_linear_schedule_with_warmup(optimizer, num_warmup_stepsargs.warmup_steps, num_training_stepst_total)# 设置warmuplogger.info(start training)train_losses [] # 记录每个epoch的平均loss# start training #for epoch in range(args.epochs):train_loss train_epoch(modelmodel, train_dataloadertrain_dataloader,optimizeroptimizer, schedulerscheduler,loggerlogger, epochepoch, argsargs)train_losses.append(round(train_loss, 4))logger.info(train loss list:{}.format(train_losses))logger.info(training finished)logger.info(train_losses:{}.format(train_losses))5 迭代训练函数 def train_epoch(model, train_dataloader, optimizer, scheduler, logger,epoch, args):model.train()device args.deviceignore_index args.ignore_indexepoch_start_time datetime.now()total_loss 0 # 记录下整个epoch的loss的总和epoch_correct_num 0 # 每个epoch中,预测正确的word的数量epoch_total_num 0 # 每个epoch中,预测的word的总数量for batch_idx, (input_ids, labels) in enumerate(train_dataloader):# 捕获cuda out of memory exceptiontry:input_ids input_ids.to(device)labels labels.to(device)outputs model.forward(input_ids, labelslabels)logits outputs.logitsloss outputs.lossloss loss.mean()# 统计该batch的预测token的正确数与总数batch_correct_num, batch_total_num calculate_acc(logits, labels, ignore_indexignore_index)# 统计该epoch的预测token的正确数与总数epoch_correct_num batch_correct_numepoch_total_num batch_total_num# 计算该batch的accuracybatch_acc batch_correct_num / batch_total_numtotal_loss loss.item()if args.gradient_accumulation_steps 1:loss loss / args.gradient_accumulation_stepsloss.backward()# 梯度裁剪torch.nn.utils.clip_grad_norm_(model.parameters(), args.max_grad_norm)# 进行一定step的梯度累计之后更新参数if (batch_idx 1) % args.gradient_accumulation_steps 0:# 更新参数optimizer.step()# 更新学习率scheduler.step()# 清空梯度信息optimizer.zero_grad()if (batch_idx 1) % args.log_step 0:logger.info(batch {} of epoch {}, loss {}, batch_acc {}, lr {}.format(batch_idx 1, epoch 1, loss.item() * args.gradient_accumulation_steps, batch_acc, scheduler.get_lr()))del input_ids, outputsexcept RuntimeError as exception:if out of memory in str(exception):logger.info(WARNING: ran out of memory)if hasattr(torch.cuda, empty_cache):torch.cuda.empty_cache()else:logger.info(str(exception))raise exception# 记录当前epoch的平均loss与accuracyepoch_mean_loss total_loss / len(train_dataloader)epoch_mean_acc epoch_correct_num / epoch_total_numlogger.info(epoch {}: loss {}, predict_acc {}.format(epoch 1, epoch_mean_loss, epoch_mean_acc))# save modellogger.info(saving model for epoch {}.format(epoch 1))model_path join(args.save_model_path, epoch{}.format(epoch 1))if not os.path.exists(model_path):os.mkdir(model_path)model_to_save model.module if hasattr(model, module) else modelmodel_to_save.save_pretrained(model_path)logger.info(epoch {} finished.format(epoch 1))epoch_finish_time datetime.now()logger.info(time for one epoch: {}.format(epoch_finish_time - epoch_start_time))return epoch_mean_loss从零构建属于自己的GPT系列1文本数据预处理 从零构建属于自己的GPT系列2语言模型训练
http://www.yutouwan.com/news/74960/

相关文章:

  • 关于网站建设的问卷分析网站前端开发培训西安
  • 怎么用ps做简单网站国土资源集约化网站群建设通知
  • 网站加后台网站建设 推广全流程
  • 赣州市网站开发公司南平市住房和城乡建设局网站
  • 擦边球网站做国内还是国外好万户网站
  • 防爆玻璃门网站建设个人网站服务器推荐
  • 成都地铁建设分公司网站yy刷单做的那些网站
  • 湘潭电大网站电子商务发展现状与趋势
  • 好的网站设计题目手机如何编辑网页内容
  • 做网站需要哪些成本制作网页完整步骤代码
  • 网站建设的技术准备关键词网站建设公司
  • 自己做网站打开很卡建设大型网站需要什么硬件
  • 网站建设管理员工工资多少wordpress mysql重启
  • 网站建设应用程序开发线上推广
  • 网站关键词优化男科医院治疗一次2000元
  • 个体营业执照可以做网站搞推广吗cms 排名 wordpress
  • 哪里有网站建设中心网站建设的进度计划
  • 美工素材网站如何建立公众号的步骤
  • 五道口网站建设公司速成美站
  • 建设银行跨行转账网站凡科互动游戏怎么破解
  • 重养网站建设可以做推广的平台
  • 自学网站建设看什么书正常成都建设网站
  • 做物流的网站有哪些app平台搭建
  • 哪个品牌网站设计感强个人网站用react做
  • 西安企业网站建设哪家好千岛湖建设集团网站
  • 直播网站怎么做的做网站怎么赚钱 111
  • 环保设备网站建设模板建立网站的意义
  • 贵阳网站商城建设网站后台关键词
  • 网站建设 个人模板下载东莞网站设计费用
  • 提供徐州网站建设兰州关键词优化效果