草庐IT

orb-slam2

全部标签

一起自学SLAM算法:8.3 LOAM算法

连载文章,长期更新,欢迎关注:写在前面第1章-ROS入门必备知识第2章-C++编程范式第3章-OpenCV图像处理第4章-机器人传感器第5章-机器人主机第6章-机器人底盘第7章-SLAM中的数学基础第8章-激光SLAM系统     8.1Gmapping算法        8.2Cartographer算法        8.3LOAM算法第9章-视觉SLAM系统第10章-其他SLAM系统第11章-自主导航中的数学基础第12章-典型自主导航系统第13章-机器人SLAM导航综合实战不管是Gmapping还是Cartographer,通常都是采用单线激光雷达作为输入并且只能在室内环境运行。虽然Ca

【工程实践】飞马SLAM100三维数据处理

0设备信息有兴趣的伙伴可以去参照官网信息,网址https://www.feimarobotics.com/zhcn/productDetailSlam100官网标称:项目Value激光视场角270°×360°绝对精度5cm相机分辨率3×500万pxs点频320kpts/s最大测距120m1采集数据文件介绍在SN_XXXX文件夹之下,会有三个文件,分别是数据文件夹,相机状态文件,激光雷达状态文件。进入PROJ1文件夹,里面分别是相机图像数据、imu文件、光栅文件、激光数据文件、设备标定文件、任务信息文件。2数据解算采用SLAM-GO-POST桌面程序进行解算,飞马官方文档来说,解算流程可以分为两

c++ - 带有ORB描述符的opencv FLANN?

我正在尝试将FLANN与ORB描述符一起使用,但opencv会因以下简单代码而崩溃:vector>dbKeypoints;vectordbDescriptors;vectorobjects;/*loadDescriptorsfromimages(withOrbDescriptorExtractor())*/FlannBasedMatchermatcher;matcher.add(dbDescriptors);matcher.train()//>Crash!如果我使用SurfDescriptorExtractor()效果很好。我该如何解决这个问题?OpenCV说:OpenCVError:

c++ - 带有ORB描述符的opencv FLANN?

我正在尝试将FLANN与ORB描述符一起使用,但opencv会因以下简单代码而崩溃:vector>dbKeypoints;vectordbDescriptors;vectorobjects;/*loadDescriptorsfromimages(withOrbDescriptorExtractor())*/FlannBasedMatchermatcher;matcher.add(dbDescriptors);matcher.train()//>Crash!如果我使用SurfDescriptorExtractor()效果很好。我该如何解决这个问题?OpenCV说:OpenCVError:

基于ORB-SLAM3库搭建SLAM系统

博客地址:https://www.cnblogs.com/zylyehuo/参考资料ORB-SLAM3配置及安装教程ORB-SLAM3配置安装及运行环境配置Win11proVMware17ProUbuntu18.04Eigen3PangolinOpencv3.4.3ORB-SLAM3源码:https://github.com/UZ-SLAMLab/ORB_SLAM3效果图注意事项建议留有15-20G左右的内存如果是新系统,没有安装git,则需要先装gitsudoapt-getinstallgit如果是新系统的话,预装的vi编辑器不完整,用不了执行如下命令安装vi编辑器sudoapt-getre

视觉SLAM⑫----建图(未完)

目录12.0本章内容12.1概述 12.2双目稠密重建 12.2.1立体视觉12.2.2极线搜索与块匹配12.2.3高斯分布的深度滤波器12.2.4像素梯度的问题 12.2.5逆深度 12.2.6图像间的变换12.2.7并行化:效率的问题12.2.7其他的改进12.3RGB-D建图理论 12.3.1点云地图示例代码 12.3.2八叉树地图 12.0本章内容1.理解单目SLAM中稠密深度估计的原理2.了解几种RGB-D重建中的地图形式        本讲介绍建图部分的算法。在前端和后端中,我们重点关注同时估计相机运动轨迹与特征点空间位置的问题。然而,在实际使用SLAM时,除了对相机本体进行定位,

【论文阅读】CubeSLAM: Monocular 3D Object SLAM

一、基于单目图像的3d目标检测这一部分是论文中最难理解的一章,作者的主要想法,是利用2d图像来生成3d的目标包围框(boundingbox),一方面这个思路本身就不是很好懂,另一方面,作者写这一章还是用的倒叙,显得更难理解了。3d包围框的定义对于本文的3d包围框,需要使用九个量来定义,可以分为三组:位置(三维场景下的xyz坐标),旋转矩阵R(rpy一共三自由度)以及三个方向上的尺度。简单来说,3d包围框本身是一个立方体,立方体的朝向就对应旋转矩阵R,立方体中心的坐标就是位置,立方体的长宽高对应的就是三个方向上的尺度,所以一共是九个自由度来描述一个空间物体的包围框。对于这篇论文,我们使用的是图像

ORB SLAM3 点云地图保存

目前ORB_SLAM3已经提供了地图保存功能。方法是在yaml文件中以下这行配置:System.SaveAtlasToFile:"map.osa"保存下来的地图可以在下次运行ORB_SLAM3时加载。然而,我经过搜索,没能找到关于.osa文件离线加载和可视化的方法,于是对ORB_SLAM3的代码进行了简单的修改,使其可以保存pcd格式的点云地图。修改代码的已发布至:GitHub-DioVei/ORB_SLAM3_with_save:Modifytheorb-slam3codetosavethekeypointsperframeandthemapinPCDformat.代码中仅使用到PCL基础的

《机器人SLAM导航核心技术与实战》第1季:第5章_机器人主机

《机器人SLAM导航核心技术与实战》第1季:第5章_机器人主机视频讲解【第1季】5.第5章_机器人主机-视频讲解【第1季】5.1.第5章_机器人主机_X86与ARM主机对比-视频讲解【第1季】5.2.第5章_机器人主机_ARM主机树莓派3B+-视频讲解【第1季】5.3.第5章_机器人主机_ARM主机RK3399-视频讲解【第1季】5.4.第5章_机器人主机_ARM主机Jetson-tx2-视频讲解【第1季】5.5.第5章_机器人主机_分布式架构主机-视频讲解第1季:第5章_机器人传感器先导课第1季:快速梳理知识要点与学习方法第2季:详细推导数学公式与代码解析第3季:代码实操以及真实机器人调试答

反光板导航SLAM(二)VEnus代码浅析

上一章简单介绍了VEnus中几个主要函数的作用,这里详细展开看一下每个函数的具体思路,通过研究具体的代码我们可以简单了解VEnus中对于反光柱定位的具体流程。1、IntensityExtraction::ExtractIntensityExtraction::Extract(VEnus::Sensor::IntensityRange2D&cloud,VEnus::Sensor::IntensityRange2D&candidate_cloud)Extract函数的主要作用是从激光点云中提取出高反点,然后存储到对应的容器中。输入的数据类型为VEnus::Sensor::IntensityRang