动态效果的网站建设技术,xiuno wordpress,做网站难,网站建设及管理文章目录 1、安装anaconda31.2、环境变量配置1.3、添加/更换 conda 清华源 2、安装pytorch1.63、CUDA安装4、安装cuDNN5、安装tensorRT6、安装opencv4.67、tensorRT部署yolov5模型推理 1、安装anaconda3
官方网网址
https://www.anaconda.com/download#downloads去到下载的文… 文章目录 1、安装anaconda31.2、环境变量配置1.3、添加/更换 conda 清华源 2、安装pytorch1.63、CUDA安装4、安装cuDNN5、安装tensorRT6、安装opencv4.67、tensorRT部署yolov5模型推理 1、安装anaconda3
官方网网址
https://www.anaconda.com/download#downloads去到下载的文件夹内执行命令bash Anaconda3-2023.09-0-Linux-x86_64.sh 1.2、环境变量配置
vim ~/.bashrc// 加入安装目录换成你前面设置的安装目录
export PATH/root/yes/condabin:$PATH// 刷新当前用户环境激活环境
source ~/.bashrc// 查看版本
conda -V1.3、添加/更换 conda 清华源
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/ #必需
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/ #必需
conda config --set show_channel_urls yes
2、安装pytorch1.6
1、创建虚拟环境
conda create -n pytorch1.6 python3.82、python安装pytorch1.6
conda install pytorch torchvision cudatoolkit10.2 -c pytorch3、设置python的环境变量
alias python/root/yes/envs/yolov5/bin/python3.84、下载yolov5-v3版本代码
git clone https://github.com/ultralytics/yolov5.git
或下载yolov5版本v3.1 https://github.com/ultralytics/yolov5/releases/tag/v3.15、在volov5路径下执行
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple6、验证
python detect.py --source ./inference/images/ --weight weights/yolov5s.pt --conf 0.4
3、CUDA安装
# 选择生成软链接不需要安装驱动
sudo sh cuda_11.7.89_440.33.01_linux.run# 查看CUDA版本
cat /usr/local/cuda/version.txt# 测试CUDA安装成功则显示PASS
cd /usr/local/cuda-11.7/samples/1_Utilities/deviceQuery
sudo make
./deviceQuery4、安装cuDNN
官网网址
https://developer.nvidia.com/rdp/cudnn-download1、解压到当前目录
tar -xf cudnn-linux-x86_64-8.9.7.29_cuda11-archive.tar.xz2、拷贝头文件和库到cuda目录下
进入目录(拷贝头文件)
cd /cudnn-linux-x86_64-8.9.7.29_cuda11-archive/include
cp cudnn.h /usr/local/cuda-11.7/include/进入目录(拷贝库)
cd cudnn-linux-x86_64-8.9.7.29_cuda11-archive/lib
cp libcudnn* /usr/local/cuda-11.7/lib64chmod ar /usr/local/cuda-11.7/include/cudnn.h
chmod ar /usr/local/cuda-11.7/lib64/libcudnn*查看版本
cat cudnn-linux-x86_64-8.9.7.29_cuda11-archive/include | grep CUDNN_MAJOR -A 2至此CUDN cuDNN安装完成可以执行相关训练文件查看是否有gpu信息输出或监控一下gpu状态
watch -n 1 nvidia-smi5、安装tensorRT
查看是否安装NVIDIA显卡
lspci | grep -i nvidia查看显卡信息
nvidia-smitensorRT官网网址GA表示正式发布稳定版本、EA抢先版
https://developer.nvidia.com/nvidia-tensorrt-8x-download1、解压
tar zxf TensorRT-8.0.1.6.Linux.x86_64-gnu.cuda-11.3.cudnn8.2.tar.gz2、移动
mv TensorRT-8.0.1.6 /opt3、配置环境变量
vim ~/.bashrc
export LD_LIBRARY_PATH$LD_LIBRARY_PATH:/opt/TensorRT-8.0.1.6/lib
export LD_LIBRARY_PATH$LD_LIBRARY_PATH:/opt/TensorRT-8.0.1.6/include
source ~/.bashrc4、安装python API
cd /opt/TensorRT-8.5.1.7/python
pip install tensorrt-7.1.3.4-cp37-none-linux_x86_64.whl5、安装 Python UFF 包支持tensorflow模型转化
cd /opt/TensorRT-8.5.1.7/uff
pip install uff-0.6.9-py2.py3-none-any.whl# 测试 Python UFF 是否安装成功
which convert-to-uff6、安装 graphsurgeon支持自定义结构
cd /opt/TensorRT-8.5.1.7/graphsurgeon
pip install graphsurgeon-0.4.5-py2.py3-none-any.whl查看tensorRT python api 版本
python
import tensorrt as trt
print(trt.__version__)6、安装opencv4.6
官网网址
https://opencv.org/releases/1、解压
unzip opencv-4.6.0.zip2、进入目录
cd opencv-4.6.03、创建目录进入目录
mkdir build
cd build4、编译
cmake -D CMAKE_INSTALL_PREFIX/usr/local -D CMAKE_BUILD_TYPERelease -D OPENCV_GENERATE_PKGCONFIGON -D OPENCV_ENABLE_NONFREETrue ..注解
1. CMAKE_INSTALL_PREFIX 是opencv的安装地址 默认安装在 usr/local
2. CMAKE_BUILD_TYPE 是opencv安装的版本Release和Debug两种可选默认安装Release
3. OPENCV_ENABLE_NONFREE 是否使用部分被申请了专利的算方法 这里选True的话就可以使用了
4. OPENCV_GENERATE_PKGCONFIG 强烈建议开启这个 设置为ON OPENCV_GENERATE_PKGCONFIG 因为opencv4默认不生成.pc文件所以加上这句用于生成opencv4.pc文件支持pkg-config功能。opencv4版本及以上 这里用ON5、cmake 结束后执行 make指令
注终端输入nproc 命令可以查看自己电脑有多少线程。我的电脑有8个使用其中6个线程编译。
sudo make -j6 #在build 文件内 执行该命令 数字越大 后续make的过程就越快。6、拷贝库
sudo make install7、配置环境变量
vim ~/.bashrc
#文件末尾添加以下内容 并保存
PKG_CONFIG_PATH$PKG_CONFIG_PATH:/usr/local/lib/pkgconfig
export PKG_CONFIG_PATH执行
source ~/.bashrc修改动态库
#打开下列文件
sudo vim /etc/ld.so.conf.d/opencv.conf # 添加lib路經 在 末尾 保存退出
/usr/local/lib# 更新
sudo ldconfig#终端输入以下两命令显示正常则安装成功
pkg-config --modversion opencv4 #查看版本号
pkg-config --libs opencv4 #查看libs库编译指令
CXX ? gCXXFLAGS -c -Wall $(shell pkg-config --cflags opencv4)
LDFLAGS $(shell pkg-config --libs --static opencv4)all: opencv_exampleopencv_example: example.o; $(CXX) $ -o $ $(LDFLAGS)%.o: %.cpp; $(CXX) $ -o $ $(CXXFLAGS) $(INC)clean: ; rm -f example.o opencv_example
7、tensorRT部署yolov5模型推理
torch官网
https://pytorch.org/进入虚拟环境
pip install torch2.0.0 torchvision0.15.1 torchaudio2.0.1 --index-url https://download.pytorch.org/whl/cu117模型转换
python export.py --weights yolov5s.pt --include engine --device 0# 需要指定尺寸因为tensort推理的时候不会做缩放要求尺寸统一(FP32)
python export.py --weights yolov5s.pt --include engine --device 0 --img 384 640# 半精度推理(推理也需要加上half)FP16
python export.py --weights yolov5s.pt --include engine --device 0 --img 384 640 --half测试推理
python detect.py --weights yolov5s.engine
yolov5-pytorch推理速度 image 1/2 /root/tensorRT_test/test/yolov5-7.0/data/images/bus.jpg: 640x480 4 persons, 1 bus, 41.1ms image 2/2 /root/tensorRT_test/test/yolov5-7.0/data/images/zidane.jpg: 384x640 2 persons, 2 ties, 41.2ms Speed: 0.2ms pre-process, 41.1ms inference, 0.7ms NMS per image at shape (1, 3, 640, 640)
tensort推理 image 1/2 /root/tensorRT_test/test/yolov5-7.0/data/images/bus.jpg: 640x640 4 persons, 1 bus, 2.9ms image 2/2 /root/tensorRT_test/test/yolov5-7.0/data/images/zidane.jpg: 640x640 2 persons, 2 ties, 2.9ms Speed: 0.5ms pre-process, 2.9ms inference, 0.8ms NMS per image at shape (1, 3, 640, 640)
tensort推理(384*640) image 1/2 /root/tensorRT_test/test/yolov5-7.0/data/images/bus.jpg: 384x640 3 persons, 1 bus, 2.0ms image 2/2 /root/tensorRT_test/test/yolov5-7.0/data/images/zidane.jpg: 384x640 2 persons, 2 ties, 1.9ms Speed: 0.5ms pre-process, 2.0ms inference, 0.8ms NMS per image at shape (1, 3, 384, 640)
Torchhub模型预测使用