一、激光SLAM简介基于激光雷达的同时定位与地图构建技术(simultaneouslocalizationandmapping,SLAM)以其准确测量障碍点的角度与距离、无须预先布置场景、可融合多传感器、在光线较差环境工作、能够生成便于导航的环境地图等优势,成为目前定位方案中不可或缺的新技术。激光SLAM任务是搭载激光雷达的主体于运动中估计自身的位姿,同时建立周围的环境地图。而准确的定位需要精确的地图,精确的地图则来自于准确的定位,定位侧重自身位姿估计,建图侧重外部环境重建。SLAM系统一般分为五个模块:传感器数据、视觉里程计、后端、建图及回环检测。传感器数据:主要用于采集实际环境中的各类型原
一、激光SLAM简介基于激光雷达的同时定位与地图构建技术(simultaneouslocalizationandmapping,SLAM)以其准确测量障碍点的角度与距离、无须预先布置场景、可融合多传感器、在光线较差环境工作、能够生成便于导航的环境地图等优势,成为目前定位方案中不可或缺的新技术。激光SLAM任务是搭载激光雷达的主体于运动中估计自身的位姿,同时建立周围的环境地图。而准确的定位需要精确的地图,精确的地图则来自于准确的定位,定位侧重自身位姿估计,建图侧重外部环境重建。SLAM系统一般分为五个模块:传感器数据、视觉里程计、后端、建图及回环检测。传感器数据:主要用于采集实际环境中的各类型原
视觉SLAM总结——SuperPoint/SuperGlue视觉SLAM总结——SuperPoint/SuperGlue1.SuperPoint1.1网络结构1.2损失函数1.3自监督训练过程2.SuperGlue2.1Sinkhorn算法2.2网络结构2.3损失函数和网络训练视觉SLAM总结——SuperPoint/SuperGlue在我刚开始接触SLAM算法的时候听到过一个大佬讲:“SLAM其实最重要的是前端,如果特征匹配做得足够鲁棒,后端就可以变得非常简单”,当时自己总结过一篇传统视觉特征的博客视觉SLAM总结——视觉特征子综述,由于当时对深度学习了解不够,因此并没有涵盖基于深度学习的视
视觉SLAM总结——SuperPoint/SuperGlue视觉SLAM总结——SuperPoint/SuperGlue1.SuperPoint1.1网络结构1.2损失函数1.3自监督训练过程2.SuperGlue2.1Sinkhorn算法2.2网络结构2.3损失函数和网络训练视觉SLAM总结——SuperPoint/SuperGlue在我刚开始接触SLAM算法的时候听到过一个大佬讲:“SLAM其实最重要的是前端,如果特征匹配做得足够鲁棒,后端就可以变得非常简单”,当时自己总结过一篇传统视觉特征的博客视觉SLAM总结——视觉特征子综述,由于当时对深度学习了解不够,因此并没有涵盖基于深度学习的视
IntelRealSenseSDK2.0是跨平台的开发套装,包含了基本的相机使用工具如realsense-viewer,也为二次开发提供了丰富的接口,包括ROS,python,Matlab,node.js,LabVIEW,OpenCV,PCL,.NET等。这次使用的摄像头是D435i它可以提供深度和RGB图像,而且带有IMU本次流程就是想使用D435i摄像头进行SLAM的点云建图进行安装IntelRealSenseSDK,查看摄像头的数据Linux/Ubuntu-实感SDK2.0构建指南安装完成后,查看相机的深度和RGB图像realsense-viewer 然后这里下载驱动intel的各个摄像
IntelRealSenseSDK2.0是跨平台的开发套装,包含了基本的相机使用工具如realsense-viewer,也为二次开发提供了丰富的接口,包括ROS,python,Matlab,node.js,LabVIEW,OpenCV,PCL,.NET等。这次使用的摄像头是D435i它可以提供深度和RGB图像,而且带有IMU本次流程就是想使用D435i摄像头进行SLAM的点云建图进行安装IntelRealSenseSDK,查看摄像头的数据Linux/Ubuntu-实感SDK2.0构建指南安装完成后,查看相机的深度和RGB图像realsense-viewer 然后这里下载驱动intel的各个摄像
连载文章,长期更新,欢迎关注:写在前面第1章-ROS入门必备知识第2章-C++编程范式第3章-OpenCV图像处理第4章-机器人传感器第5章-机器人主机第6章-机器人底盘第7章-SLAM中的数学基础第8章-激光SLAM系统 8.1Gmapping算法 8.2Cartographer算法 8.3LOAM算法第9章-视觉SLAM系统第10章-其他SLAM系统第11章-自主导航中的数学基础第12章-典型自主导航系统第13章-机器人SLAM导航综合实战下面将从原理分析、源码解读和安装与运行这3个方面展开讲解Gmapping算法。8.1.1Gmapping原理分析首先
连载文章,长期更新,欢迎关注:写在前面第1章-ROS入门必备知识第2章-C++编程范式第3章-OpenCV图像处理第4章-机器人传感器第5章-机器人主机第6章-机器人底盘第7章-SLAM中的数学基础第8章-激光SLAM系统 8.1Gmapping算法 8.2Cartographer算法 8.3LOAM算法第9章-视觉SLAM系统第10章-其他SLAM系统第11章-自主导航中的数学基础第12章-典型自主导航系统第13章-机器人SLAM导航综合实战下面将从原理分析、源码解读和安装与运行这3个方面展开讲解Gmapping算法。8.1.1Gmapping原理分析首先
多源传感器GNSSINS视觉LiDAR组合导航与SLAM开源项目总结本文基于吴桐wutong微信公众号文章完善而来。开源代码总览名称传感器类型组合类型滤波方法备注RTKLIBG-KFGAMP、rtklibexplorerhttps://www.rtklib.com/GPSTKG-KFhttps://github.com/SGL-UT/GPSTkBNCG-KFppp_wizardKF_GINSG、I松组合KFOB_GINShttps://github.com/i2Nav-WHU/KF-GINS/blob/main/README_CN.mdPSINSG、I紧组合KFhttp://www.psins
多源传感器GNSSINS视觉LiDAR组合导航与SLAM开源项目总结本文基于吴桐wutong微信公众号文章完善而来。开源代码总览名称传感器类型组合类型滤波方法备注RTKLIBG-KFGAMP、rtklibexplorerhttps://www.rtklib.com/GPSTKG-KFhttps://github.com/SGL-UT/GPSTkBNCG-KFppp_wizardKF_GINSG、I松组合KFOB_GINShttps://github.com/i2Nav-WHU/KF-GINS/blob/main/README_CN.mdPSINSG、I紧组合KFhttp://www.psins