当前位置: 首页 > news >正文

阳城做网站做网站什么一级导航二级导航

阳城做网站,做网站什么一级导航二级导航,西安专业网站开发公司,网站备案期间 权重LLaVA-V1#xff08;2023/04#xff09; 论文#xff1a;Visual Instruction Tuning 网络结构 如下图 所示为 LLaVA-v1 的模型结构#xff0c;可以看出其简化了很多#xff0c;但整体来说还是由三个组件构成#xff1a; Vision Encoder#xff1a;和 Flamingo 模型的 V…LLaVA-V12023/04 论文Visual Instruction Tuning 网络结构  如下图 所示为 LLaVA-v1 的模型结构可以看出其简化了很多但整体来说还是由三个组件构成 Vision Encoder和 Flamingo 模型的 Vision Encoder 作用一样也是用于提取视觉特征作者采用的是CLIP ViT-L/14。 Projection W其比 Flamingo 中的 Perceiver Resampler和 BLIP-2 中的 Q-Former 简单得多只是一层简单的 Linear将 image feature 映射到 LLM 的 word embedding 空间。 Large Language Model和 Flamingo 模型的 LLM 作用相同用于生成文本不过作者没有对 LLM 的结构进行修改直接使用了 基于LLaMA的Vicuna-v1.5 13B 模型。 训练 作者基于ChatGPT or GPT-4设计了一种策略将现有的图像-文本对数据集转化为具有更多多样性的视觉-语言指令数据集从而用于端到端微调LLaVA模型。 模型训练任务是预测Assitant的答案和停止符因此一条指令微调样本中只有绿色部分是计算loss的样本示例如下图所示 模型的训练分成以下2步进行采用的是图像-文本对数据转化成的指令微调数据 首先冻结住视觉编码器和LLM只训练线性投影层W从而将视觉特征和LLM的语言编码空间对齐。然后冻结住视觉编码器训练线性投影层和LLM LLaVA-v1.52023/08 论文 Improved Baselines with Visual Instruction Tuning 网络结构 与LLaVA-v1相比变化很小主要包括 Vision Encoder输入图像从 LLaVA-1 的 224x224 扩展到 336x336作者采用的是CLIP  ViT-L/336px。 Vision-Language Connector从 LLaVA-1 的单层 Linear 扩展为两层 MLP中间使用 GELU 激活。 Large Language Model从 LLaVA-1 的 Vicuna-v1.3 13B扩展为 Vicuna-v1.5 13B。 指令微调训练数据增加了面向学术任务的视觉问答数据样本。 训练 训练一个指令跟随的视觉-语言多模态大模型LMM通常分成2步 采用图像-文本对数据集将视觉特征对齐到大语言模型的语言word embedding spacevisual instruction tuning阶段 MiniGPT-v12023/04 论文[2304.10592v2] MiniGPT-4: Enhancing Vision-Language Understanding with Advanced Large Language Models 网络结构 MiniGPT-4 的模型结构如下图所示可以看出其和 BLIP-2 几乎一样 Vision Encoder直接使用了 BLIP-2 的方案作者用的是EVA-CLIP ViT-G/14。 ProjectionBLIP-2 的 Q-Former 也完整保留同样后面增加了一层可训练的 Linear 层。 Large Language Model使用 Vicuna-v0 模型作为 LLM。 训练  训练分成两步 特征对齐预训练在整个预训练阶段Vision Encoder Q-Former 和 LLM 都保持冻结状态只训练线性投影层。作者使用了 Conceptual Caption 数据集SBU 数据集和 LAION 数据集的集合来训练batch-size 为 256经过 20,000 个 step大概覆盖了 5M 个图像-文本对。整个过程在 4xA100 80G GPU 上经过 10 个小时训练完成。预训练的LMM生成内容不够自然还需要采用少量高质量数据进行进一步微调端到端微调在微调阶段作者从 Conceptual Caption 数据集中随机选择了 5,000 个图像然后用预训练的模型为每个图像生成了一个文本描述之后在经过一系列处理最终挑选出 3,500 左右的高质量图像-文本对构成微调阶段的数据集。基于此只需训练 400 个 stepbatch size 为 12在单个 A100 上 7 分钟即可完成训练。 MiniGPT-v22023/08 论文MiniGPT-v2large language model as a unified interface for vision-language multi-task learning 网络结构 由三部分组成 视觉编码器将 EVA[2211.07636] EVA: Exploring the Limits of Masked Visual Representation Learning at Scale 作为视觉主干并在整个模型训练期间冻结视觉主干。 Projection采用更高分辨率的图像448x448投影所有图像 Token 会导致非常长的序列输入其会显著降低训练和推理效率。因此作者在嵌入空间中ViT的输出层将相邻的 4 个视觉 Token拼接起来并将它们一起投影到大型语言模型的embedding 中从而将视觉输入 Token 的数量减少了 75%。 Large Language Model使用开源的 LLaMA2-chat7B[2302.13971] LLaMA: Open and Efficient Foundation Language Models作为语言模型主干。 Multi-task Instruction Template 一个多模态大模型同时用于多种视觉-语言任务时输出内容可能是不明确的。例如当问图像中某个人的位置时大模型的输出既可以是bounding box坐标形式也可以是自然语言格式例如upper right corner。为了缓解这种不明确降低LMM对多种任务的学习难度作者提出multi-task instruction template中增加task-specific tokens任务相关的标记符 输入模板格式如下图所示[INST]是user role[/INST]是assignment role。将user input分成三部分图像特征  任务标识符 Instruction 如下表1所示针对6种不同任务设计了6种不同的标识符token以减少各种任务之间的歧义。分别对应视觉问答VQA、图像描述Image Caption、图像定位描述Grounded Caption、指示表达理解REC、指示表达生成REG以及目标解析和定位Object Parsing and Grounding模型从输入文本中提取目标并检测它们对应的位置。对于与视觉无关的指令模型不会使用任何任务标识 Token。 训练 在整个训练过程中MiniGPT-v2 的 Vision Encoder 都保持冻结状态。主要训练线性投影层、并使用 LoRA 有效地对 LLM 进行对齐。在 LoRA 中 作者通过低秩适配器来微调 Wq 和 Wv实现中设置 rank 64。所有阶段都以 448x448 的图像分辨率训练模型。在每个阶段都是用设计的多模态指令模板进行视觉-语言任务训练。整个训练分成三个阶段 第一阶段预训练 为了拥有更广泛的视觉语言知识作者在弱标签和细粒度数据集上进行混合训练并给予弱标签数据更高的采样率以便获得更多样化的知识。最终在 8xA100 GPU 上训练 400,000 步全局批量大小为 96最大学习率为 1e-4。这个阶段大约需要 90 个小时。 第二阶段多任务训练 为了提高 MiniGPT-v2 在每个任务上的性能作者排除了第一阶段中的弱标签数据集例如 GRIT-20M 和 LAION在此阶段只使用细粒度数据集进行训练并根据每个任务的频率更新数据采样率。此策略使提出的模型能够优先考虑高质量的对齐图像-文本数据以便在各种任务上实现卓越性能。训练模型对应后文的 MiniGPT-v2。最终在 4xA100 GPU 上训练 50,000 步最大学习率为 1e-5采用 64 的全局批量大小此训练阶段持续大约 20 小时。 第三阶段多模态指令微调 在第二阶段细粒度数据集基础上添加了多模态指令微调数据集多模态指令微调数据集具有更大的采样频率包括来自 LLaVA 的详细描述和复杂推理数据。在 4xA100 GPU 上再执行 35,000 个步骤的训练使用 24 的全局 batch 大小此训练阶段大约需要 7 小时保持相同的最大学习率 1e-5。 VisualGLM-6B2023/05 BLIP-22023/01 论文BLIP-2: Bootstrapping Language-Image Pre-training with Frozen Image Encoders and Large Language Models-2301.12597 网络结构 随着端到端预训练多模态大模型的成本越来越高作者提出一种轻量化的Querying TransformerQ-Former来弥补模态之间的差异大大降低了可训练参数量并采用两阶段来训练它第一阶段采用通过冻结的图像编码器来学习图像-文本表征能力第二阶段采用冻结的LLM学习图像到文本的生成能力。 模型中唯一可训练的模块就是提出的 Q-Former它能够从图像编码器中提取固定数量的输出特征与输入图像分辨率无关。Q-Former 的结构如下图所示其由两个共享 Self Attention的 Transformer 子模块组成也就是说图中橙色的 Self Attention 是共享的灰色的 Cross Attention、紫色的 Feed Forward 和绿色的 Feed Forward 都是独立的 Q-Former 左侧为 image transformer与冻结的 image encoder 交互以进行视觉特征提取 Q-Former 右侧为 text transformer可以用文本 encoder 和文本 decoder 在 Q-Former 中作者额外创建了一组可学习的 Query embedding 作为 image transformer 的输入。这些 Query embedding 在 Self Attention 层相互交叉并通过 Cross attention 层每隔一个 transformer block 有一个 Cross attention与冻结的 image encoder 输出的 image embedding 进行交叉。此外这些 Query embedding 还通过相同的 Self Attention 与 text embedding 相交叉。作者使用 Bert Base 的预训练权重来初始化 Q-Former其中的 Cross Attention 是随机初始化的Q-Former 总共包含 188M 个参数包括 Query embedding。 在本文的实验中作者使用了 32 个 Query每个 Query 的维度为 768与 Q-Former 中的 hidden 维度相同。也就是对应的 Query 的维度为 32 x 768由于 transformer block 并不会更改输入的维度因此 image transformer 输出的维度 Z 也为 32 x 768这相比冻结的 image encoder 输出的维度小得多比如ViT-L/14 对应输出维度为 257 x 1024。这种架构与预训练一起协同迫使这些 Query 提取与 Text 最相关的视觉信息。 以输入的 Query embedding 维度 32 x 768输入的 image embedding 维度 257 x 1024 为例如下所示可以看出 Cross Attention 的过程最终也可以保持 Query embedding 维度不变 训练  1第一阶段视觉-语言表示学习 在第一阶段的表征学习阶段作者将 Q-Former 连接到冻结的 image encoder 上没有 LLM并使用图像-文本对进行预训练。目标是训练 Q-Former以便 Query 可以学习提取对文本信息量最大的视觉表征。受 BLIP 的启发作者联合了三个具有相同输入格式和模型参数的预训练目标。每个训练任务在 Query 和 Text 之间采用不同的 Attention Mask 策略来控制它们之间的交互。 图像-文本对比学习Image-Text Contrastive LearningITC 将 image transformer 的输出 Query 表征 Z 与 text transformer 输出的文本表征 t 对齐其中 t 对应 [CLS] Token 的输出 embedding。由于 Z 包含多个输出 embedding32 个 Query对应 32 个 embedding 向量因此作者首先计算每个 Query 表征与 t 之间的成对相似度32 个然后选择最高的一个作为图像-文本相似度。为了避免信息泄露作者采用了单模态的 Self-Attention Mask其不允许 Query 和 Text 相互看到  基于图像的文本生成Image-grounded Text GenerationITG  ITG 的目的是以给定输入图像作为条件来训练 Q-Former 生成文本。由于 Q-Former 的架构不允许 Text Token 与 image encoder 之间直接交互因此必须先由 Query 和 image encoder 交互提取生成文本所需的信息然后通过 Self-Attention 传递给 Text Token。也就是说Query 被强制提取有关文本的所有信息的视觉特征。作者采用多模态因果自注意力掩码Multi-modal Causal Self-Attention Mask来控制 Query-Text 之间的交互。类似于 UniLM 中使用的 MaskQuery 可以相互关注到但不能关注到 Text。每个 Text Token 都可以关注到所有 Query Token以及之前的 Text Token。此外作者还将 [CLS] Token 换成了 [DEC] Token作为发出解码任务信息的第一个 Text Token。 图像-文本匹配Image-Text MatchingITM  ITM 的目的是学习图像和文本之间的细粒度对齐。这是一个二元分类任务要求模型预测图像-文本对是正匹配还是负不匹配。此时作者使用双向自注意力掩码Bi-directional Self-Attention Mask也就是 Query 和 Text 都可以相互看到。因此 Query 表征 Z 可以捕获到多模态信息。之后作者将 Z 中的每个 embedding32个都输入到二元分类 Linear 层以获得 logit并将所有 Query 的 logit 平均输出为匹配分数 2第二阶段视觉到语言生成学习 在第二阶段的预训练阶段作者将 Q-Former带有冻结的 image encoder连接到冻结的 LLM以获得 LLM 强大的语言生成能力。如下图 Figure 3 所示作者将 Q-former 的输出 Z 通过全连接FC投影到与 LLM 的 text embedding 相同的维度中类似 LLaVA-1.5 中直接将 image encoder 的输出通过一个 MLP 投影到 text embedding 相同维度并实现模态对齐。然后将投影的 Query embedding 附加到输入的 text embedding 之前。它们可以充当 soft visual prompts也就是使 LLM 以 Q-Former 提取的视觉表征为条件。由于 Q-Former 已经经过预训练以提取语言相关language-informative的视觉表征因此它有效的充当了bottleneck将最有用的信息提供给 LLM同时删除不相关的视觉信息。这减轻了 LLM 学习视觉-语言对齐的负担从而减轻了灾难性遗忘问题。 CogVLM2023/10  论文CogVLM: Visual Expert for Large Language Models 质谱AI清华大学工作 以 BLIP-2 为代表的流行的浅对齐方法通过可训练的 Q-Former 或者线性层连接冻结的预训练视觉编码器和语言模型将图像特征映射到语言模型的输入 embedding 空间。这种方法收敛比较快但是性能不如联合训练视觉和语言模型比如 PaLI-X。至于通过浅对齐方法训练的聊天式 VLM比如 MiniGPT-4、LLAVA 和 VisualGLM较弱的视觉能力主要表现在幻觉上。因此作者想要保留大语言模型的 NLP 能力同时获得一流的视觉理解能力。 网络结构 如下图 Figure 3 所示为 CogVLM 的模型结构可以看出还是三个主要模块不过对 LLM 进行了较大的修改 Vision Encoder直接使用预训练的 EVA-CLIP ViT-E/14[2303.15389] EVA-CLIP: Improved Training Techniques for CLIP at Scale作者删除了 ViT 的最后一层因为它是专门用于聚合特征以便进行对比学习的。 MLP Adapter使用两层 MLP用于将 ViT 的输出映射到文本特征空间。所有图像特征在LLM中共享相同的位置编码 Large Language Model作者向Transformer 每一层都添加了一个visual expert module以实现视觉-语言特征的深度对齐。具体来说每一层的 visual expert module 都包含 QKV 矩阵和 MLP层它们的形状与大语言模型中的形状相同并且都是从 LLM 内的对应模块作为初始化权重。这样做的动机是语言模型中的每个注意力头部都能捕捉到语义信息的某些方面而可训练的visual expert 可以将图像特征与LLM不同的头部对齐从而实现视觉-语言特征的深度融合。 训练 1预训练 数据采用图像-文本对分成2个步骤 采用image captioning loss即预测文本中的下一个单词采用image caption和Referring Expression ComprehensionREC的混合训练任务。REC的训练任务是输出图像中物体的坐标例如Question: Where is the object?” and “Answer: [[x0, y0, x1, y1]]”. 2有监督微调SFT 训练得到的模型称为CogVLM-Chat 采用高质量的多任务SFT数据总共约50w VQA对数据 迭代8000次batch size640基础学习率采用10-5为了防止LLM过拟合LLM部分的学习率是其他部分学习率的0.1倍。除了ViT外其余部分的网络参数都进行更新。 Qwen-VL2023/08 来自阿里团队 论文Qwen-VL: A Versatile Vision-Language Model for Understanding, Localization, Text Reading, and Beyond 网络结构 其结构也由三个模块组成 Vision Encoder采用的是 OpenCLIP ViT-G/14在第一和第二阶段的预训练阶段会微调。 Large Language Model采用 Qwen-7B 作为 LLM并且在训练的第一阶段保持冻结。 vision language Adapter采用单层的 Cross Attention 模块和 Q-Former 类似包含一组可学习的 Query 向量ViT是输出作为cross attention的keys。经消融实验选择了最优的 256 个 Query这样视觉特征序列的长度就为固定的256从而提高了效率。最后将长度为256的视觉特征输入LLM。 输入输出格式 图像输入在固定长度为256的视觉特征嵌入的前后加上特殊的标记符img和/imgbounding box的输入输出对应任意的bbox要标准化到[0,1000]将坐标转化为指定的字符串形式(Xtopleft, Ytopleft),(Xbottomright, Ybottomright). 这个字符被分词成文本不需要额外的位置词汇为了与常规的文本字符串区分在bbox字符串前后增加box和/box特殊token还增加特征字符ref和/ref。 训练 训练分成3个阶段2个预训练 1个指令微调 1预训练 数据集采用一个大规模的、弱标记的、网络爬取的图像-文本对集。收集的开源阿里自家的数据集原始为5B清洗之后保留1.4B用于训练其中77.3%为英语22.7%为中文文本。冻结LLM只训练ViT和VL适配器 图像大小采用224x224训练目标函数为预测下一个token。 2多任务预训练 同时采用了7种任务的训练数据将相同的任务数据打包成长度为2048的序列来构建交错的图像-文本数据。图像分辨率增大到448x448。此阶段训练整个模型包括LLM。经过此阶段训练后的模型称为Qwen-VL。 3指令微调 主要采用image caption数据 对话数据一共350K。 冻结住ViT只训练LLM和VL适配器。经过此阶段训练后的模型称为Qwen-VL-Chat
http://wiki.neutronadmin.com/news/107028/

相关文章:

  • 做服饰网站建筑网片厂家货源平台
  • 网站建设费怎么写会计科目网站上传格式
  • 响应式网站模板怎么得到wordpress文章加图片
  • 微信网站开发js框架学校网站建设申请报告
  • 专注江苏网站建设大型网站开发 广州
  • 抖音小程序推荐采集网站seo
  • 深圳cms建站系统建设工程资讯哪个网站好
  • 北京集团 网站建设响应式网站和自适应
  • 用dw制作网站模板下载下载软件的应用商店
  • 照片墙网站源码网店推广方案策划书
  • 建设公司网站管理制度的意义wordpress更改文章宽度
  • 做期货看啥子网站如何加强企业网站建设 论文
  • 中山网络公司网站建设做外贸用哪个网站好
  • 建设网站 宣传平台企业网站建设毕业设计
  • 昆明自助建站模板沈阳城乡建设工程信息网
  • 襄阳网站建设xtehuswordpress 数据库导入
  • 单位做网站资料需要什么软件新开发的app怎么推广
  • 加强公司门户网站建设wordpress手机导航三横拦
  • 12306网站哪个公司做的重庆网站建设公
  • 贵阳网站建设1685建立购物网站
  • 万盛建设局官方网站云浮网站网站建设
  • 贵阳门户网站建设3d建模自学
  • 做书籍的网站网站建设自我总结
  • 福建平潭建设局网站seo薪资seo
  • 购物网站开发背景需求搭建一个论坛
  • 到哪个网站做任务做网站用什么语言高效
  • 广西桂林漓江南京百度推广优化排名
  • 承德网站开发区地税西宁网站建设 哪家好
  • 中国能源建设集团有限公司网站金华网站建设大型网页建设
  • 做彩票网站要什么接口企业备案域名