草庐IT

YOLOv5-CLS

全部标签

在ubuntu20.04上利用tensorrt部署yolov5(C++和Python接口)

在ubuntu20.04上利用tensorrt部署yolov5(C++和Python接口)‘下个博客是yolov7的部署’一、CUDA、CUDNN、TensorRT以及OpenCV安装CUDA安装CUDNN安装TensorRT安装OpenCV安装二、YOLOv5部署文件准备模型文件转换3.生成wts文件4.生成部署引擎5.端侧部署模型测试图片6.视频检测7.安卓部署8.C++部署一、CUDA、CUDNN、TensorRT以及OpenCV安装1、CUDA安装#CUDA=10.2#选择生成软链接,不需要安装驱动sudoshcuda_10.2.89_440.33.01_linux.run#查看CUD

在ubuntu20.04上利用tensorrt部署yolov5(C++和Python接口)

在ubuntu20.04上利用tensorrt部署yolov5(C++和Python接口)‘下个博客是yolov7的部署’一、CUDA、CUDNN、TensorRT以及OpenCV安装CUDA安装CUDNN安装TensorRT安装OpenCV安装二、YOLOv5部署文件准备模型文件转换3.生成wts文件4.生成部署引擎5.端侧部署模型测试图片6.视频检测7.安卓部署8.C++部署一、CUDA、CUDNN、TensorRT以及OpenCV安装1、CUDA安装#CUDA=10.2#选择生成软链接,不需要安装驱动sudoshcuda_10.2.89_440.33.01_linux.run#查看CUD

yolov8 瑞芯微 RKNN 的 C++部署

  上一篇博客yolov8瑞芯微RKNN和地平线Horizon芯片仿真测试部署写了在rknn模型的转换与PC端仿真测试,有网友希望写一篇在板子上部署的博文和开源提供C++代码。这一篇基于rknn板子进行C++部署,并开源提供完整的源代码和模型,供网友自行进行测试验证。特别说明:如有侵权告知删除,谢谢。【完整代码】代码和模型1、rknn模型准备  onnx转rknn模型这一步就不再赘述,请参考上一篇”yolov8瑞芯微RKNN和地平线Horizon芯片仿真测试部署“。上一篇提供了完整的模型和代码,如果仅仅是想验证模型,可以直接拿提供的rknn模型进行后续的步骤,本篇也是基于上一篇转好的rknn模

YOLOv5 CSGO敌人识别和鼠标调控

YOLOv5CSGO敌人识别和鼠标调控文档1.安装2.运行代码3.键位功能4.如果你不想构建工程,可以通过以下链接下载安装包体验。​工程源码https://github.com/ZraryZU/evilcsgo.git​1.安装Anaconda并创建虚拟环境2.安装CUDA3.安装TensorRT4.安装Torch注意版本要对应上,CSDN上有很多安装教程,这里就不介绍了。上述准备好后执行以下步骤:文档1.安装在Python>=3.7.0环境中克隆repo并安装requirement.txt,包括PyTorch>=1.7。gitclonehttps://github.com/ZraryZU/e

YOLOV5训练时找不到lables标签

出现这种问题一般都是一下这几点原因,现在教大家如何解决,逐个排除。第一点:先查看自己的.yaml文件中添加的数据路径中的文件中的图片路径是否正确。这个一般是有两种添加方法,一个是直接添加图片的文件夹路径,这种方法出现无labels的情况一般就不是这里的问题。另一种方法是添加train.txt文本文件,train.txt中的文件内容是用于训练的图片路径,检查train.txt文件中的图片路径是否正确。第二点:    在项目中找到datasets.py文件,此文件在utils下。    在datasets.py文件中找到img2label_paths(img_paths)函数,如下。       

yolov7进行数据增强及数据划分

前文讲到yolov7训练自己数据集的过程:链接但是如果数据量不够,训练结果不好,这时候就需要进行数据增强。个人学习记录:yolov7数据集的格式是Yolo格式,也就是txt文件,数据增强针对的是xml文件,所以要进行转化,增强后再转换回来即可。Yolo格式转xml格式importcv2importosxml_head='''VOC2007{}TheVOC2007DatabasePASCALVOC2007flickr{}{}{}0'''xml_obj='''{}Rear00{}{}{}{}'''xml_end=''''''#需要修改为你自己数据集的分类labels=['baggage']#lab

涨点技巧: 谷歌强势推出优化器Lion,引入到Yolov5/Yolov7,内存更小、效率更高,秒杀Adam(W)

1.Lion优化器介绍论文:https://arxiv.org/abs/2302.06675代码:automl/lionatmaster·google/automl·GitHub 1.1  简单、内存高效、运行速度更快1)与AdamW和各种自适应优化器需要同时保存一阶和二阶矩相比,Lion只需要动量,将额外的内存占用减半;2)由于Lion的简单性,Lion在我们的实验中具有更快的运行时间(step/s),通常比AdamW和Adafactor提速2-15%;      1.2Lion优化器在各种模型、任务和领域上的优越

【目标检测】YOLOv5跑通VisDrone数据集

背景在YOLOv5官方的6.1版本中,我发现Data目录下多了5种数据集,包括无人机航拍数据集VisDrone和遥感数据集xView,这反映了官方也是在小目标检测中在偷偷发力。这篇博文就来记录如何用YOLOv5跑通VisDrone数据集。数据集我已上传到网盘里,有需要的读者可以进行下载:https://pan.baidu.com/s/1UNQlZGHZlAZs412tbnpAxg?pwd=8888数据集结构数据集总共分四个文件:VisDrone2019-DET-train:训练集VisDrone2019-DET-val:验证集VisDrone2019-DET-test-dev:测试集(带标签)

yolov8-pose:在yolov8上添加人体关键点检测

  最近因为工作关系接触了yolo-pose,1月份yolov8也出来了,就想着能不能在yolov8上也加上pose分支,也算加深对网络的认识。  yolov8在数据处理上也考虑了keypoints的,所以数据处理部分不用太多的修改,主要修改了Detect类、Loss类。  Detect类:__init__方法中加入nkpt以及cv4分支,用于检测人体关键点  Loss类:__call__方法中加入计算人体关键点的oksloss。    修改完成后在我自己的小数据上能够收敛,训练数据格式如下:  0代表类别  0.710.5340.2280.44代表box的x,y,w,h  0.7070.36

【YOLO系列】YOLOv2论文超详细解读(翻译 +学习笔记)

前言时隔一年,YOLOv2隆重登场,新的YOLO版本论文叫《YOLO9000:Better,Faster,Stronger》,作者JosephRedmon和AliFarhadi在YOLOv1的基础上,进行了大量改进,提出了YOLOv2和YOLO9000,重点解决YOLOv1召回率和定位精度方面的不足。论文原文:[1612.08242]YOLO9000:Better,Faster,Stronger(arxiv.org)项目主页:YOLO:Real-TimeObjectDetection(pjreddie.com) 前情回顾:【YOLO系列】YOLOv1论文超详细解读(翻译+学习笔记)目录前言 A