当前位置: 首页 > news >正文

电子商务的网站建设设计书深圳龙岗企业网站建设

电子商务的网站建设设计书,深圳龙岗企业网站建设,优化裁员,wordpress评论点回复不刷新LORA概述: 大语言模型的低阶适应 LORA: 大语言模型的低阶适应前言摘要论文十问实验RoBERTaDeBERTaGPT-2GPT-3 结论代码调用 LORA: 大语言模型的低阶适应 前言 LoRA的核心思想在于优化预训练语言模型的微调过程#xff0c;通过有效地处理权重矩阵的变化#xff08;即梯度更新… LORA概述: 大语言模型的低阶适应 LORA: 大语言模型的低阶适应前言摘要论文十问实验RoBERTaDeBERTaGPT-2GPT-3 结论代码调用 LORA: 大语言模型的低阶适应 前言 LoRA的核心思想在于优化预训练语言模型的微调过程通过有效地处理权重矩阵的变化即梯度更新的累积使其具有“低秩”结构。简而言之这意味着可以通过低秩分解有效地表示变化矩阵。 具体来说对于预训练权重矩阵W₀其更新量可以表示为∆W BA其中B和A都是低秩矩阵例如秩为rr明显小于矩阵维度d。在训练期间W₀被冻结而B和A中的参数是可训练的。这明显减少了适应的可训练参数数量。 如下图所示在原始预训练语言模型旁边添加一个旁路执行降维再升维的操作以模拟内在秩。在训练过程中固定预训练语言模型的参数只训练降维矩阵A和升维矩阵B。模型的输入输出维度保持不变输出时将BA与预训练语言模型的参数叠加。矩阵A使用随机高斯分布进行初始化而矩阵B则使用零矩阵进行初始化以确保在训练开始时该旁路矩阵仍然是零矩阵。 摘要 自然语言处理的一个重要范式包括在通用域数据上进行大规模预训练,以及针对特定任务或域进行适配。随着我们预训练更大的模型,全面微调,即重新训练所有模型参数,变得更加不可行。 以GPT-3 175B为例,单独部署经过微调的独立实例模型,每个实例拥有1750亿个参数,是极其昂贵的。我们提出了低秩适应(LoRA)方法,其中冻结预训练模型权重,并在transformer体系结构的每个层中插入可训练的低秩分解矩阵,从而大大减少下游任务的可训练参数数量。 与使用Adam微调GPT-3 175B相比,LoRA可以将可训练参数数量减少10000倍,GPU内存需求减少3倍。尽管只有更少的可训练参数和更高的训练吞吐量,但LoRA在RoBERTa、DeBERTa、GPT-2和GPT-3上的性能优于或等同于微调。 我们还对语言模型适配中的秩缺失进行了实证研究,这解释了LoRA的功效。我们发布了一个软件包,可以方便地将LoRA与PyTorch模型集成,并为RoBERTa、DeBERTa和GPT-2提供了我们的实现和模型检查点。 论文十问 论文试图解决什么问题 这篇论文试图解决大规模预训练语言模型(如GPT-3)微调(fine-tuning)所带来的巨大的存储、部署和任务切换成本的问题。 这是否是一个新的问题 这不是一个全新的问题,但随着 transformer 语言模型规模的不断增长(如 GPT-3 175B 参数),这个问题的严重性在增加。论文中也提到了许多相关的已有工作。 这篇文章要验证一个什么科学假设 这篇文章的主要科学假设是微调过程中模型参数的变化矩阵具有低秩结构(rank-deficient)。基于这个假设,作者提出了低秩适应(LoRA)方法来有效地适应下游任务。 有哪些相关研究如何归类谁是这一课题在领域内值得关注的研究员 相关的工作包括适配器模块、prompt tuning等参数高效适应方法。 论文中提到的解决方案之关键是什么 LoRA的关键是只训练插入到每个transformer层中的低秩分解矩阵,而保持预训练权重固定。这大大降低了适应的可训练参数数量。 论文中的实验是如何设计的 在 RoBERTa、DeBERTa、GPT-2 和 GPT-3 等模型上进行了大量实验比较。实验设计针对性强,测试了性能和参数数量的权衡。 用于定量评估的数据集是什么代码有没有开源 使用的数据集包括 GLUE、WikiSQL、SAMSum 等。实验代码和模型检查点开源。 论文中的实验及结果有没有很好地支持需要验证的科学假设 是的,丰富的实验验证了 LoRA 在性能、存储效率、训练速度等方面都优于或匹敌全微调基线,支持了低秩适应的有效性。 这篇论文到底有什么贡献 主要贡献是提出 LoRA 方法,大幅降低大模型微调的成本,并给出可复现的实验验证。 下一步呢有什么工作可以继续深入 下一步可以考虑与其他高效适应方法(如prompt tuning)的结合,解释微调过程中模型内部表示的变化,进一步提高 LoRA 的泛化性等。 实验 评估了 LoRA 在 RoBERTa (Liu et al., 2019)、DeBERTa (He et al., 2021) 和 GPT-2 (Radford etal., b) 上的下游任务性能然后再扩展到 GPT- 3 175B布朗等人2020 年 RoBERTa RoBERTa是Facebook AI于2019年提出的语言表示模型。相比BERT有更优化的预训练步骤,性能更好,参数规模类似,分Base和Large两个版本。实验中分别使用了1.25亿参数和3.55亿参数的RoBERTa模型。 DeBERTa 微软于2020年提出的改进型BERT模型。采用多任务预训练、增强型注意力机制等技术。实验中使用了极大规模的DeBERTa XXL,包含了1500亿参数。 GPT-2 OpenAI于2019年提出的基于Transformer的语言生成模型GPT-2。模型架构采用了解码器,支持自回归文本生成。实验分别基于中等规模(3.54亿参数)和大规模(7.74亿参数)的GPT-2进行。 GPT-3 OpenAI于2020年发布的巨大语言模型, Transformer规模达到了1750亿参数,是当时最大的神经语言模型。论文使用了这个极具挑战性的大模型进行扩展实验。这几种模型的选择,可以让作者全面验证LoRA适配方法在不同规模的Transformer类模型中的有效性。覆盖了目前最典型和最前沿的语言表示与生成模型。 结论 实际好处 内存和存储使用减少 在使用Adam训练的大型Transformer中通过使用LoRA显著减少了VRAM显存和存储的使用量。例如在GPT-3 175B上将训练期间的VRAM消耗从1.2TB减少到350GB。检查点大小减小 在一定条件下检查点大小减少了大约10,000倍从350GB减少到35MB。这降低了GPU训练的硬件需求并避免了I/O瓶颈。任务切换成本降低 LoRA允许在任务之间进行切换通过仅交换LoRA权重而不是所有参数降低了部署的成本。这使得可以在机器上动态换入和换出预训练权重创建自定义模型。加速训练 在GPT-3 175B的训练中相较于完全微调观察到25%的加速因为不需要计算绝大多数参数的梯度。 局限性 前向传递复杂性 吸收不同任务的A和B到W中以消除额外推理延迟在单个前向传递中批量输入并不简单。需要考虑不同任务的权重合并和动态选择LoRA模块的复杂性。推理延迟问题 尽管可以动态选择LoRA模块以处理不同任务的推理延迟但在一些场景中合并权重可能引入不可避免的问题。 代码调用 使用 PEFT 训练您的模型 下面的示例是使用 LoRA 进行微调的情况。 from transformers import AutoModelForSeq2SeqLM from peft import PeftModel, PeftConfigpeft_model_id smangrul/twitter_complaints_bigscience_T0_3B_LORA_SEQ_2_SEQ_LM config PeftConfig.from_pretrained(peft_model_id) model AutoModelForSeq2SeqLM.from_pretrained(config.base_model_name_or_path) model PeftModel.from_pretrained(model, peft_model_id) tokenizer AutoTokenizer.from_pretrained(config.base_model_name_or_path)model model.to(device) model.eval() inputs tokenizer(Tweet text : HondaCustSvc Your customer service has been horrible during the recall process. I will never purchase a Honda again. Label :, return_tensorspt)with torch.no_grad():outputs model.generate(input_idsinputs[input_ids].to(cuda), max_new_tokens10)print(tokenizer.batch_decode(outputs.detach().cpu().numpy(), skip_special_tokensTrue)[0])
http://wiki.neutronadmin.com/news/315655/

相关文章:

  • 东莞公司想建网站软件开发工具框图
  • 建设网站的公司的官网wordpress king模板
  • 公司做网站的步骤五指山住房建设局网站
  • 高端网站建设公司费用wordpress红色主题公园
  • iis6 静态网站进入公众号会有记录吗
  • 阿凡达网站设计洛阳恢复客运最新通知
  • 重庆交通建设集团有限公司网站网站-网站建设定制
  • 目前做美术的网站以及app如何提高网站内容质量
  • 苏州网站推广排名服务公司口号
  • 行业网站策划青岛营销型网站推广
  • vs网站开发实例百度推广费用怎么算
  • 大学一学一做视频网站百度安装app下载免费
  • 联想网络营销推广方法147seo工具
  • 国外创意型网站设计网页浏览器包括
  • 开源的网站系统网上做网站接活怎么样
  • 八步网站建设什么是搜索引擎优化用一句话概括
  • 用哪个网站做首页比较好求网站开发客户
  • 帝国网站管理系统入门教程wordpress 登录下载
  • 网站建设整体策划四川高速建设公司网站
  • 网站建设hairongsoft乐清网站艰涩
  • 做网站要搭建什么平台公司备案号查询平台官网
  • 农业网站怎么做百度推广如何建设网站山东济南兴田德润官网
  • 同学录网站开发的背景徐州有哪些网络公司
  • html5网站后台管理系统公司网站建设费怎么做账
  • 做彩票网站被捉将受到什么惩罚wordpress博客vieu模板
  • 做亚马逊网站的公司建议wordpress禁止游客访问
  • 0基础网站开发上市公司
  • 网站建设与维护高考试卷朝阳区互联网大厂
  • 盐城专业做网站的公司wordpress 安装中文
  • 做网站什么价位河北一建考试最新消息