当前位置: 首页 > news >正文

贵州小城镇建设网站南山出名的互联网公司

贵州小城镇建设网站,南山出名的互联网公司,页面设计需求需要做哪些方面?,网络营销策略的概念大模型使用——超算上部署LLAMA-2-70B-Chat 前言 1、本机为Inspiron 5005#xff0c;为64位#xff0c;所用操作系统为Windos 10。超算的操作系统为基于Centos的linux#xff0c;GPU配置为A100#xff0c;所使用开发环境为Anaconda。 2、本教程主要实现了在超算上部署LLAM…大模型使用——超算上部署LLAMA-2-70B-Chat 前言 1、本机为Inspiron 5005为64位所用操作系统为Windos 10。超算的操作系统为基于Centos的linuxGPU配置为A100所使用开发环境为Anaconda。 2、本教程主要实现了在超算上部署LLAMA2-70B-Chat。 实现步骤 1、连接上超算以后执行如下命令在超算上创建一个虚拟环境。 conda create --name alpaca python3.9 -y2、运行如下命令激活虚拟环境。 conda activate alpaca3、在到LLAMA2的Github地址下载好llama2项目。 4、将下载好llama2项目的文件通过自己windows上的cmd中输入scp指令传输到超算上。 scp -r E:\llama-main wangcheng10.26.14.56:/public/home/wangcheng/5、在超算上进入llama-main文件夹然后输入如下命令安装稳定版的llama2运行的依赖。 cd llama-main pip install -e .6、在Meta申请LLAMA2使用的链接地址上填写资料然后申请LLAMA2模型的下载链接申请完毕可以得到一份邮件邮件中包含了下载链接。 7、在超算的llama-main目录下使用如下指令开始下载模型在下载模型开始时会要求你输入下载链接第二步会让你选择要下载的模型你选好要下载的模型以后程序便会自己进行下载整个过程时间比较长在模型下载完毕后会自己先进行一步模型文件下载是否完整的校验若你要自己进行一下文件的校验可以使用如下所示的第二条指令第二条指令双引号中的内容在下载的模型文件夹中包含的checklist.chk文件中找到然后进行替换校验即可。 bash download.shecho 6efc8dab194ab59e49cd24be5574d85e consolidated.00.pth | md5sum --check -8、模型下载完毕后通过如下指令将自己创建的llama_test.sh文件进行超算的使用调度。注llama_test.sh文件中的代码如下 sbatch llama_test.sh#!/bin/bash #SBATCH --job-namellama_job_test #SBATCH --outputtestLLAMAJob.%j.out #SBATCH --errortestLLAMAJob.%j.err #SBATCH --partitionGPU_s #SBATCH --nodes1 #SBATCH --ntasks-per-node8 #SBATCH --gresgpu:8starttimedate %Y-%m-%d %H:%M:%S # 执行data命令获取当前的日期和时间的格式化表示并赋值给starttime nvidia-smi # 查看NVIDIA GPU的状态和性能信息输出当前节点上GPU的状态信息 echo CUDA_VISIBLE_DEVICES $CUDA_VISIBLE_DEVICES # 输出当前进程中 CUDA_VISIBLE_DEVICES 的值echo 命令用于输出字符串source ~/.bashrc # 于重新加载用户的 Bash 配置文件 ~/.bashrc确保在后续的命令中可以使用最新的环境变量和别名设置 hostname ./hostfile # 获取当前主机的名称并将其输出到一个名为 hostfile 的文件中echo $SLURM_NTASKS # 输出当前作业中分配的任务数 echo Date $(date) # 输出当前的日期和时间 echo Hostname $(hostname -s) # 输出当前主机的名称 echo Working Directory $(pwd) # 输出当前工作目录的路径 echo # 输出一个空行使易于阅读 echo Number of Nodes Allocated $SLURM_JOB_NUM_NODES # 输出作业节点 echo Number of Tasks Allocated $SLURM_NTASKS # 输出当前作业分配的任务数 echo Number of Cores/Task Allocated $SLURM_CPUS_PER_TASK # 输出每个任务被分配的CPU核心数 echo $SLURM_NPROCS # 输出当前作业中分配的处理器数ulimit -s unlimited # 设置当前shell会话的栈大小限制为无限制 ulimit -v unlimited # 设置当前shell会话的虚拟内存限制为无限制即不限制进程使用的虚拟内存大小 ulimit -m unlimited # 设置当前shell会话的物理内存限制为无限制module load cuda/11.7 # 加载11.7版本的CUDA软件模块 module load gcc/12.1 # 加载12.1的GCC编译器的软件模块 module load torch/2.0.1 # 加载2.0.1版本的torch# module load cuda/11.6 # 加载11.6版本的CUDA软件模块 # module load gcc/12.1 # 加载12.1的GCC编译器的软件模块 # module load torch/2.0 # 加载2.0版本的torchsource activate alpaca # 激活名为 alpaca 的Python虚拟环境python -V # 显示当前系统上安装的Python版本号 echo CUDA_VISIBLE_DEVICES $CUDA_VISIBLE_DEVICES # 输出当前作业可以使用的CUDA设备的ID列表 echo CONDA_DEFAULT_ENV $CONDA_DEFAULT_ENV # 输出当前工作的conda虚拟环境 # conda list # 列出当前conda环境下安装的python包# export MASTER_ADDRlocalhost # export MASTER_PORT8888 # export WORLD_SIZE8 # export NODE_RANK0 # export OMP_NUM_THREADS9# 使用torchrun进行分布式部署 # torchrun --nproc_per_node 8 example_chat_completion.py --ckpt_dir llama-2-70b-chat/ --tokenizer_path tokenizer.model --max_seq_len 512 --max_batch_size 4 torchrun --nproc_per_node 8 chat.py --ckpt_dir llama-2-70b-chat/ --tokenizer_path tokenizer.model --max_seq_len 512 --max_batch_size 4 # torchrun --nproc_per_node 1 example_chat_completion.py --ckpt_dir llama-2-7b-chat/ --tokenizer_path tokenizer.model --max_seq_len 512 --max_batch_size 4 # python chat.py --ckpt_dir llama-2-7b-chat/ --tokenizer_path tokenizer.model --max_seq_len 512 --max_batch_size 4 # python -m torch.distributed.launch --nproc_per_node8 chat.py --ckpt_dir llama-2-70b-chat/ --tokenizer_path tokenizer.model --max_seq_len 512 --max_batch_size 4 nvidia-smi echo Job ends at date # 输出当前的日期 endtimedate %Y-%m-%d %H:%M:%S # 执行data命令获取当前的日期和时间的格式化表示并赋值给endtime start_seconds$(date --date$starttime %s); # 将开始时间转换为秒数 end_seconds$(date --date$endtime %s); # 将结束时间转换为秒数 echo 本次运行时间 $((end_seconds-start_seconds))s # 输出字符串,得到当前任务10、在得到的输出文件testLLAMAJob.389396.out中可以看到llama2成功部署到超算上了。 Remark实行部署笔记纸质档
http://www.yutouwan.com/news/283950/

相关文章:

  • 网站开发工具js柳州网站建设哪里有
  • 做网站市场分析工业电商网站怎么配色
  • 做淘宝必备网站dede网站地图代码
  • 做公司网站需要制作内容wordpress上手需要多久
  • 网站开头flash怎么做十堰秦楚网最新消息
  • 海报设计网站免费蓝海网站建设
  • 提高整个网站权重江苏国智建设有限公司网站
  • 做网站的技术性说明做网站建设销售工资
  • 蓝色网站设计html颜色代码表
  • 定制化网站开发一般多少钱深圳市科技网站开发
  • 校友会网站建设wordpress 分类目录 不显示
  • 军博做网站公司org域名不能注册了
  • 温州知名网站编写微信小程序用什么软件
  • 万网主机 建网站企业做网站的目的
  • 淄博专业网站建设哪家专业制作公司app
  • 进不去wordpress北京搜索引擎优化
  • 会计公司网站源码淄博微网站建设
  • 哪些企业网站做得好泸州公司做网站
  • 源码网站代理伴奏在线制作网站
  • 公司建立自己的网站吗北京企业网站建设费用
  • 中介做哪些网站asp医院网站源码
  • 网站续费wordpress页面添加图片不显示图片
  • 网站强制使用极速模式百度风云榜
  • 濉溪建设投资网站传媒网站源码
  • 玉溪建设局门户网站泰安口碑好的企业建站公司
  • 微网站开发案例专业的会议网站建设
  • 免费发帖的网站wordpress 空间需求php哪个版本
  • 卧龙区网站建设页面推广文案模板
  • cms仿站教程瑞安建设网站
  • 学习电子商务网站建设与管理感想设计网红打卡