草庐IT

RGB-D SLAM 代码解析(一)

目录1、数据结构解析1.1类定义1.2相机内参、帧结构、PnP结果3个结构体定义1.3参数读取类1.4函数接口定义2、函数调用流程解析1、数据结构解析    数据结构类CAMERA_INTRINSIC_PARAMETERS、FRAME、RESULT_OF_PNP、ParameterReader都在slambase.h文件中定义,我们首先进行slambase.h的解析。1.1类定义    定义我们使用的点云中的点数据结构和点云数据结构://类定义typedefpcl::PointXYZRGBAPointT;typedefpcl::PointCloudPointCloud;1.2相机内参、帧结构、

RGB-D SLAM 代码解析(一)

目录1、数据结构解析1.1类定义1.2相机内参、帧结构、PnP结果3个结构体定义1.3参数读取类1.4函数接口定义2、函数调用流程解析1、数据结构解析    数据结构类CAMERA_INTRINSIC_PARAMETERS、FRAME、RESULT_OF_PNP、ParameterReader都在slambase.h文件中定义,我们首先进行slambase.h的解析。1.1类定义    定义我们使用的点云中的点数据结构和点云数据结构://类定义typedefpcl::PointXYZRGBAPointT;typedefpcl::PointCloudPointCloud;1.2相机内参、帧结构、

一起自学SLAM算法:10.1 RTABMAP算法

连载文章,长期更新,欢迎关注:写在前面第1章-ROS入门必备知识第2章-C++编程范式第3章-OpenCV图像处理第4章-机器人传感器第5章-机器人主机第6章-机器人底盘第7章-SLAM中的数学基础第8章-激光SLAM系统第9章-视觉SLAM系统第10章-其他SLAM系统     10.1RTABMAP算法        10.2VINS算法        10.3机器学习与SLAM第11章-自主导航中的数学基础第12章-典型自主导航系统第13章-机器人SLAM导航综合实战同前面介绍过的大多数算法一样,RTABMAP也采用基于优化的方法来求解SLAM问题,系统框架同样遵循前端里程计、后端优化和

一起自学SLAM算法:10.1 RTABMAP算法

连载文章,长期更新,欢迎关注:写在前面第1章-ROS入门必备知识第2章-C++编程范式第3章-OpenCV图像处理第4章-机器人传感器第5章-机器人主机第6章-机器人底盘第7章-SLAM中的数学基础第8章-激光SLAM系统第9章-视觉SLAM系统第10章-其他SLAM系统     10.1RTABMAP算法        10.2VINS算法        10.3机器学习与SLAM第11章-自主导航中的数学基础第12章-典型自主导航系统第13章-机器人SLAM导航综合实战同前面介绍过的大多数算法一样,RTABMAP也采用基于优化的方法来求解SLAM问题,系统框架同样遵循前端里程计、后端优化和

3D激光雷达SLAM算法学习02——3D激光雷达传感器

1.本篇思维导图2.3D激光雷达传感器分类3.机械激光雷达直观视频感受:Velodyne优点:360°视野,精度高,工作稳定,成像快缺点:成本较高,不符合自动驾驶车规,生命周期短,主要厂商:Velydone、禾赛、速腾原理:激光雷达通过测量激光信号的时间差和相位差来确定距离,对于每个点来说,原理如图所示机械式激光雷达可实现360°扫描,一般有4/16/32/64线,那么具体在“高度”方向上的线束实现,和360扫描是怎么实现的呢,可以将一维的点云检测,扩展到3D感知,以Velodyne为例比如16线的激光雷达,激光器发出16条激光线,通过扫描镜打出16束在一个平面的光线,像这样然后旋转电机驱动扫

SLAM本质剖析番外-李群李代数的微分和导数

0.简介这几个月,博主已经从SLAM算法的使用向着算法的数学推导进行了记录和分享,之前也分享了李群李代数关注核心一文,从现象中解释了李群和李代数表达的含义。但是这还不够,所以这次作者作为SLAM本质剖析的番外,来介绍李群李代数的微分和导数。1.旋转点求导李群或者李代数上叠加微小量的情况呢?传统的求导过程中,我们常见的做法是对自变量添加一个微小值来进行:f′(x)=lim⁡Δx→0f(x+Δx)Δxf'(x)=\lim_{\Deltax\rightarrow0}\frac{f(x+\Deltax)}{\Deltax}f′(x)=Δx→0lim​Δxf(x+Δx)​但是这种形式对于旋转矩阵SO(3

ubuntu 20.04+ORB_SLAM3 安装并行全记录(无坑版)(一)

目录1.系统配置2.准备工作2.1安装git,g++,python2.2安装cmake3.安装库3.1安装EIGEN库3.2安装opencv3.3安装PANGOLIN3.4安装boost在ubuntu20.04上安装并运行orb_slam3,网上各种安装教程,一般都会出错。我在此给出一个无坑安装并运行版,亲测可用。1.系统配置先给出系统的配置:ubuntu:20.04gcc:9.4.0cmake:3.23.2opencv:4.5.5eigen3:3.3.7Pangolin:v0.6(注意:高版本的库不能工作)boost:1.79.0ORB_SLAM3:V1.0,December22th,202

从零入门激光SLAM(一)——什么是SLAM

大家好呀,我是一个SLAM方向的在读博士,深知SLAM学习过程一路走来的坎坷,也十分感谢各位大佬的优质文章和源码。随着知识的越来越多,越来越细,我准备整理一个自己的激光SLAM学习笔记专栏,从0带大家快速上手激光SLAM,也方便想入门SLAM的同学和小白学习参考,相信看完会有一定的收获。如有不对的地方欢迎指出,欢迎各位大佬交流讨论,一起进步。1.什么是SLAMSLAM的全称是SimultaneousLocalizationandMapping即时定位与地图构建,为解决机器人自主导航的问题。人在一个未知的环境下也不知如何行进,我们闭着眼睛也不知道怎么走路,机器人如人一样,也需要一个“眼睛”与环境

Ubuntu18.04下成功实现ORB_SLAM2 奥比中光astra深度相机

  在ROS环境下,采用奥比中光的Astra深度相机,复现ORB_SLAM2代码,真的太难了,不过csdn上有好多大佬,纯纯地靠大佬们带飞,基本上我是参照这篇博客使用奥比中光OrbbecAstraPro在ROS下跑orb_slam2_梁小憨憨的博客-CSDN博客来实现的,博主写的超级详细,简直是搞视觉SLAM小白的福音。所以针对我在实现ORB_SLAM2过程中存在的问题做个简单整理:一、在ROSmelodic环境下安装奥比中光相机驱动1、按照参考的博客开始安装,到runastra_camera这步时,深度图可以看到,彩色图像显示“NOimage”,应该是相机接口的问题,我试了他的解决方法,好像

Ubuntu18.04下成功实现ORB_SLAM2 奥比中光astra深度相机

  在ROS环境下,采用奥比中光的Astra深度相机,复现ORB_SLAM2代码,真的太难了,不过csdn上有好多大佬,纯纯地靠大佬们带飞,基本上我是参照这篇博客使用奥比中光OrbbecAstraPro在ROS下跑orb_slam2_梁小憨憨的博客-CSDN博客来实现的,博主写的超级详细,简直是搞视觉SLAM小白的福音。所以针对我在实现ORB_SLAM2过程中存在的问题做个简单整理:一、在ROSmelodic环境下安装奥比中光相机驱动1、按照参考的博客开始安装,到runastra_camera这步时,深度图可以看到,彩色图像显示“NOimage”,应该是相机接口的问题,我试了他的解决方法,好像