当前位置: 首页 > news >正文

做词云的网站wordpress侧边栏工具

做词云的网站,wordpress侧边栏工具,域名注册查询工具,成品源码78w78目录 一.引言 二.FLOPs 和 TFLOPs ◆ FLOPs [Floating point Opearation Per Second] ◆ TFLOPs [Tera Floating point Opearation Per Second] 三.训练阶段的 GPU 消耗 ◆ 影响训练的因素 ◆ GPT-3 训练统计 ◆ 自定义训练 GPU 评估 四.推理阶段的 GPU 消耗 ◆ 影响… 目录 一.引言 二.FLOPs 和 TFLOPs ◆ FLOPs [Floating point Opearation Per Second] ◆ TFLOPs [Tera Floating point Opearation Per Second] 三.训练阶段的 GPU 消耗 ◆ 影响训练的因素 ◆ GPT-3 训练统计 ◆ 自定义训练 GPU 评估 四.推理阶段的 GPU 消耗 ◆ 影响推理的因素 ◆ 自定义推理 GPU 评估 ◆ 计算差异 五.基于 Token 的计算方式 六.总结 一.引言 LLM 大模型时代GPU 显卡的算力至关重要无论是训练还是推理都离不开大规模 GPU 的支持。由于工作需要需要评估 LLM 任务所需显卡算力搜了一下发现网上关于 GPU 评估计算的文章并不多特此记录有不妥的地方欢迎大家评论区多多交流。 二.FLOPs 和 TFLOPs 介绍 GPU 算力评估之前首先我们需要了解下 GPU 计算能力的常见评估指标。 ◆ FLOPs [Floating point Opearation Per Second] 表示设备每秒所执行的浮点运算数量。 ◆ TFLOPs [Tera Floating point Opearation Per Second] 表示设备每秒执行一万亿次浮点运算的数量即 10^12 次方。 其中浮点运算是指涉及小数点的计算例如加减乘除。TFLOPs 比 FLOPs 单位更大其用于衡量计算机或处理器的更高性能。以 L40S 为例在精度为 FP32 的情况下其算力可达 91.6 TFLOPs而 A800 则只有 19.5 TFLOPsRTX 3060 大约是 12.5 TFLOPS。如果是超级计算机其 TFLOPS 性能指标可达 1000 万亿次每秒。 三.训练阶段的 GPU 消耗 ◆ 影响训练的因素 计算前先看下训练阶段有哪些因素会影响训练的进程。 - 训练数据大小 - 模型参数规模 - 训练 Epoch 次数 - 显卡算力 ◆ GPT-3 训练统计 上面我们介绍了 FLOPs 和 TFLOPs这里 ZettaFLOPs 代表每秒十万京 (10^21) 次的浮点运算不同指标之间主要是单位的差异。以 GPT-3 为参照其为 1750 亿参数的模型45 TB 训练数据训练一次大约需要 175 ZettaFLOPs 即 1.75 x 10^23 次浮点数运算。由于这里我们没有获取到 175 ZFLOPs 是一个 Epoch 还是完整训练所以后续的计算我们先统一按完整训练所需为参照。 ◆ 自定义训练 GPU 评估 这里假定我们训练的模型是 LLaMA-33B参数量为 330 以训练数据量为 50GGPU 算力以 A800 下 FP32 计算即 19.5 TFLOPs则训练该模型需要 GPU 算力为: NeedFLOPs (330 / 1750) * (0.048828125 / 45) * 1.75 * 10^23 FLOPs 我们使用设备为 A800则其可提供的算力为: CalcByA800 19.5 * 10^12 FLOPs 最后结合我们需要的天数例如训练 5 天结束则 5 天的 s 数为: TrainTime 86400 * 5 最终所需 GPU 数量为: GPUCount NeedFLOPs / (CalcByA800 * TrainTime) 为了方便计算我们直接改写为 Python 代码: #!/usr/bin/python # -*- coding: UTF-8 -*-Returns the estimated number of GPUsParameters----------args_num : 当前模型参数数量单位为 亿data_size : 当前训练数据大小单位为 GBReturns-------count : 所需 GPU 数量, 未向上取整 def calc_gpu_num(_args_num, _data_size, _train_days):need_flops (_args_num / 1750) * (_data_size / 45) * 1.75 * 10 ** 23calc_by_a800 19.5 * 10 ** 12train_time 86400 * _train_daysgpu_count need_flops / (calc_by_a800 * train_time)return gpu_countif __name__ __main__:args_num 330 # LLaMA-33Bdata_size 0.048828125 # 50Gtrain_days 5 # 训练5天count calc_gpu_num(args_num, data_size, train_days)print(count)计算得到 count  4.250628165558721我们向上取整可得 5 天训练 50G 数据的 LLaMA-33B 模型需要 5 张 A800不过这里并未考虑显存或者性能损耗等问题只是粗略估算。 四.推理阶段的 GPU 消耗 ◆ 影响推理的因素 - 输入输出数据 - 模型参数规模 - 显卡算力 推理阶段需要计算输入与输出的文本之和实际计算中需要将文本 tokenizer 到 token_ids 以便 transformers 计算中文字符与 token 比例大概为 1:2 即 1 个中文字符对应 2 个 token_ids。GPU 推理计算时其与输入输出文本和 L、模型维度 D 和模型层数 N 成正比。 ◆ 自定义推理 GPU 评估 假设输入的 query 文本数为 100输出的文本书为 1000则 L (100 1000) * 2 2200按模型维度 D 1280层数 N 96则计算所需算力: ​NeedFLOPs ≈ L * D * N ≈ 270336000 2.7 * 10^8 假设我们使用 A800 用 1s 时间完成本次推理请求: CalcByA800 19.5 * 10^12 FLOPs 则需要 GPU 数量: count 270336000 / (19.5 * 10**12) 1.3863384615384615e-05 反过来 CalcByA800 / NeedFLOPs 可以计算一张 A800 可以满足约 7.2 w 用户 1s 内获取回复不过这只是理想情况 people (19.5 * 10**12) / 270336000 72132.45738636363 ◆ 计算差异 推理时涉及到文字和计算例如生成连贯的剧情、生成数学逻辑的推理。这些处理对算力的消耗几乎相同这是 LLM 的本质是语言模型只要在输入输出相同的情况下其处理的都是 token_ids推理得到的也都是 next_token 的分布还是 token_ids所以与具体的表现形式无关即不同类型的任务只要输入输出相近则其对算力的消耗也相近。 五.基于 Token 的计算方式 上面的方式都是基于 FLOPs 为基准计算的但是由于实际场景下很多信息我们获取的并不完整。例如 GPT-3 的训练 FLOPs 是否准确训练的 FLOPs 是一个 epoch 还是一整个训练流程因此实际场景下还可以采用另一种方式即基于 Token 处理效率的计算但是这种计算方式有一个前提就是需要你事先测算出对应 GPU 设备每秒处理的 token 数量即 Process Tokens / s。 以博主实际测算为例P40 即 4090 的 token 处理能力约为 25 Token / s假设我们一天需要请求 1000 次每次输入输出共 1000 个汉字共花费 10 h 处理完成则需要 P40 的数量可通过下述公式计算 def calc_gpu_num_by_token(post_token_num, post_time_all, token_process):return post_token_num / (post_time_all * token_process)if __name__ __main__:token_num 1000 * 1000 * 2 # 1000 次请求、1000 个汉字对应 2000 个 tokentime_cost 10 * 3600 # 总处理时间token_process_num 25 # 每s可处理 token 数目print(calc_gpu_num_by_token(token_num, time_cost, token_process_num)) 算下来 10h 处理完这些需求需要 2.223 台 P40则向上取整得到需要 3 台 P40。 六.总结 这里分享了几种 GPU 算力计算的方法上面的计算都是基于理想状态实际情况下还需要考虑多机多卡的 IO 延迟机器的网络延迟以及模型大小与 GPU 显存的供需关系等等。更多的数据还是需要自己实践出真知有问题欢迎大家在评论区一直讨论因为现在网上这方面的信息还是相对较少可以一起分享一起进步
http://www.yutouwan.com/news/176687/

相关文章:

  • 网站设计费报价表巩义便宜网站建设公司
  • wordpress建电商网站网站开发毕业设计开课题目
  • 网站制作窍门2016做网站
  • 做网站设计答辩问题个人开发什么软件挣钱
  • 新手建站论坛重庆市公司网站备案在哪了
  • 二手域名交易平台网站编辑做seo好做吗
  • python做网站视频教程网站功能策划
  • 网站开发遇到的问题广告设计与制作专业分析
  • 深圳建设交易中心网站平面设计兼职怎么收费
  • 成都网站制作成都wordpress 字符替换插件
  • 网站上传面板上海官网制作
  • 注册新公司网上核名网站wordpress安卓显示图片
  • 濮阳做网站的价格网站建设的软硬件平台
  • 网站存在风险什么意思设计师网站介绍
  • 广东省住房城乡建设厅网站三个年轻人做电影网站800万
  • 成品网站管理系统源码wordpress 主题放哪
  • 学网站建设 去那里珠海市官网网站建设价格
  • 网站建设论文的摘要包头有没有专业做淘宝网站的
  • 做代还的人都聚集在哪些网站德州住房和城乡建设厅网站
  • 详细论述制作网站的步骤广州网站建设正
  • 洛龙区网站设计建设石家庄网站快速备案
  • 崇安区网站建设价格国外最开放的浏览器有什么优势
  • jsp 响应式网站模板wordpress考试主题
  • 需要做网站的企业电子商务网站建设期末题库
  • 杭州网站建设咨询蓝韵网络手机网站模板源码
  • 做电商不不得不知道的网站安卓手机优化软件哪个好
  • 做搜狗pc网站点岳阳网站建设网站
  • 郑州旅游网站建设网络公司构建网站
  • 建设企业网站新闻开发的意义软件接口设计文档
  • 做网站 计算机有交嘛工业设计公司