草庐IT

MMDetection3

全部标签

零基础熟悉mmdetection3d数据提取、模型搭建过程

本图文从介绍配置文件开始,逐步构建一个新的配置文件,并依次构建相关模型,最终使用一条点云数据简单走了一下处理流程关于mmdetection3d的安装,参考官方文档安装—MMDetection3D1.0.0rc4文档1、读取配置文件1.1mmdetection3d配置文件的组成官方文档:教程1:学习配置文件—MMDetection3D1.0.0rc4文档在mmdetection3d中,主要思想是通过继承默认配置来实现自定义模型,当然,也可以将模型的所有配置写在一个文件里,按需使用。配置文件存放于mmdetection3d/config目录下,其中**_base_目录为mmdetection3d自

mmdetection ValueError: need at least one array to concatenate解决方案

在mmdetection中有时候训练模型会出现ValueError:needatleastonearraytoconcatenate的错误,详情如下图所示。很多人都说是mmdet/dataset下coco.py或voc.py中CLASSES设置与数据集对应不上,博主不以为然。因为在mmdetection2中,不需要到mmdet/dataset中修改CLASSES,只需要在训练配置文件中中设置一下就行了。config解释器会通过继承自动修改CLASSES的值,具体可见下图,或参考mmdetection2的使用教程从数据处理、配置文件到训练与测试(支持coco数据和pascal_voc数据)_万里

MMDetection3D库中的一些模块介绍

本文目前仅包含2个体素编码器、2个中间编码器、1个主干网络、1个颈部网络和1个检测头。如果有机会,会继续补充更多模型。若发现内容有误,欢迎指出。  MMDetection3D的点云数据一般会经历如下步骤/模块:#mermaid-svg-q9Wy2NQvFHfuPWKs{font-family:"trebuchetms",verdana,arial,sans-serif;font-size:16px;fill:#333;}#mermaid-svg-q9Wy2NQvFHfuPWKs.error-icon{fill:#552222;}#mermaid-svg-q9Wy2NQvFHfuPWKs.err

MMDetection3D/3D目标检测中的边界框和坐标系介绍(含相关函数以及坐标变换的介绍)

1.准备知识参考:带你玩转3D检测和分割(二):核心组件分析之坐标系和Box-知乎1.1坐标系介绍    激光雷达坐标系通常定义如下左图所示,其中指向前方,指向左方,指向上方。         相机坐标系通常定义如上右图所示,其中指向右方,指向下方,指向前方。1.23D边界框的定义    一般来说,对于自动驾驶目标检测任务而言,一个3D边界框可以由7个参数决定:位置、尺寸以及朝向角/偏航角/旋转角。        一般将与物体朝向平行的棱的长度记为边界框长度,竖直方向棱的长度记为边界框高度,余下一组棱的长度记为边界框宽度,如下左图所示。        将边界框绕高度轴(对于激光雷达坐标系,高度

【mmdetection】验证时AP为-1

目录问题AP的解释可能的Bug问题验证的时候评价指标输出是酱紫的 AveragePrecision (AP)@[IoU=0.50:0.95|area= all|maxDets=100]=0.177 AveragePrecision (AP)@[IoU=0.50   |area= all|maxDets=1000]=0.608 AveragePrecision (AP)@[IoU=0.75   |area= all|maxDets=1000]=0.057 AveragePrecision (AP)@[IoU=0.50:0.95|area=small|maxDets=1000]=0.293 Ave

【mmdetection】用自己的coco数据集训练mask r-cnn并进行验证、测试,推理可视化,更改backbone,只针对某一标签进行训练

大前提:Ubuntu20.04LTS本人呕心沥血从无到有的摸索,自己边尝试边整理的,其实耐心多看官方文档确实能找到很多东西(下面有官方文档的链接这里就不重复粘贴了),也为了方便我自己copy语句嘻嘻~为什么不是用Windows,作为一个小白我一开始真的想用windows,因为我懒得配双系统,但是没办法,是真的lj,安装又难,训练有诸多限制,就sosad知道吧。安装就看别的博主吧跟着别的博主soeasy嘿嘿~一、准备好自己的coco数据集labelme标注的数据集生成json文件,使用labeleme2coco.py分别生成train,test,val的json文件。二、修改配置文件2.1./m

mmdetection3d-之(三)--FCOS3d训练waymo数据集

本内容分为两部分1.waymo数据集转KITTI格式2.FCOS3D训练KITTI格式的waymo数据集1 waymo数据集转kitti格式1.1waymo数据集简介 1.1.1waymo数据集下载waymo数据集v1.2.0可以从这里下载。其中,train(32个压缩包),test(8个压缩包),val(8个压缩包)。这里的文件都是压缩包,每个都有20个G左右。如果不想下载压缩包,可以下载解压好individual的segments。 waymo数据集的解析代码在这里,可以按照demo进行解析与可视化。GitHub-waymo-research/waymo-open-dataset:Waym

玩转MMDetection-MMDetection中的模型框架文件及参数解读(一)

该文主要介绍完整的MMDetection包含的配置文件中的模型文件--model.py以下代码详细逐行解读了模型文件包含的代码含义及使用一、特征提取网络主干 采用如上图所示的SwinTransformer作为特征提取网络主干,并进行以下配置。 若想选取其他主干模型,则更改“type=‘新模型名字’”,且需要根据你选择的新模型对应定义新的参数,例如以下SwinTransformer作为主干的示例,以及对应参数的含义backbone=dict(type='SwinTransformer',#主干网络(特征提取网络)采用SwinTransformer,以下为关于SwinTransformer网络参数

MMDetection报错解决:(1)在验证和测试时CUDA out of memory;(2)验证和测试时mAP全为0

目录一.环境二.验证和测试时OOM(CUDAoutofmemory)2.1问题描述2.2初步分析2.3初步解决2.3.1gpu->cpu(OK但巨慢)2.3.2no-validate(不起作用,离线测试时依旧OOM)2.3.3rescale(OK但mAP=0)三.验证和测试时mAP全为03.1原因3.2RLE编码3.3实现效果3.4存在问题3.5修改细节一.环境OS:Ubuntu18.04CUDA:11.0mmcv-full:1.7.0mmdet:2.25.1GPU:1080Ti*4二.验证和测试时OOM(CUDAoutofmemory)2.1问题描述        在使用MMDetectio

win10 mmdetection3d环境搭建

官网:mmdetection3d/README_zh-CN.mdatmaster·open-mmlab/mmdetection3d·GitHub安装过程参照:win10mmdetection3d训练KITTI_树和猫的博客-CSDN博客_pointnet训练kitti官网安装过程前言3D目标检测框架综述-知乎中描述了当前3D目标检测的数据和模型状况,为了能将数据和评价标准等统一,介绍了4个比较统一的检测算法框架。OpenPCDet社区活跃,代码轻量化且可读性强(有些顶刊论文是基于这个框架开发的)基于Pytorch框架mmdetection3d社区活跃,有官方文档,便于上手;代码封装性好,cod