
引言:MATLAB在机器人中的应用
现在大多数机器人开发者都会选择ROS,在ROS整个框架下“调包”极其容易。很多ROS开发者热衷于“调包”来实现功能,却难以在机器人学的理论知识上有所突破。MATLAB的使用者则以理论研究人员为主,很多机器人学的硕士或者博士都需要靠MATLAB来验证理论,但是缺少将算法部署在机器人上的实际经验。ROS和MATLAB是非常好的能够将机器人开发的理论与实践相结合的工具。大量的机器人方向研究者,希望能将ROS和MATLAB结合起来。
我在研究生阶段,主要的开发工具就是MATLAB和C++,当时用MATLAB做过粒子滤波算法,以及用Robotics Toolbox求解双足机器人的逆运动学,还完成过现代控制、神经网络和机器视觉课程作业。后来研究机器人空间认知的时候就是MATLAB和ROS相结合,那时候工具箱不完善,很多功能都要靠自己搭建,非常耗费时间。下面的回答中,提及了很多我在MATLAB中的工作,算得上资深的MATLAB用户啦。
在职业生涯的大部分时间里,我觉得MATLAB就是一个科研工具,离实用有比较大的差距。甚至一直都觉得用Python编写的ROS程序和MATLAB程序相比,效率和可靠性肯定更高。
然而,最近在刷知乎的时候看到一篇回答,有点颠覆我的认知。
大致是说在和硬件结合的时候,在工业用途上,Python相比于MATLAB就是弟弟。
通过ROS Toolbox Simulink工具与真实机器人进行连接
这几年MATLAB不断升级对ROS的支持,现在连接非常容易。通过ROS无人竞速车和MATLAB结合,可以快速进行无人车的算法研究和开发。官方油管上也有视频介绍如何将MATLAB和ROS无人车结合进行入门学习[1]。
我们采用Tianracer(https://github.com/tianbot/tianracer)ROS无人竞速车,在MATLAB中通过Simulink与ROS通信。Tianracer是阿克曼结构,搭载一个单线激光雷达和鱼眼镜头。Tianracer是一个软硬件完全开源的项目,国内不少课题组也采用了Tianracer进行无人车算法开发[2]。了解Tianracer可以参考我之前的文章
ROS开源项目:(一)中文语音交互系统ROSECHO (二)教学级别无人车Tianracer

◼智能无人系统应用挑战赛
控制背景的研究者都比较熟悉Simulink。通过Simulink连接ROS,大多数操作都可以通过图形化界面实现,低代码的方式也比较适合入门学习者。要和ROS通信并使用完整功能,需要在Simulink APP中打开ROS后设置网络,并且在订阅消息模块中设置ROS网络。注意要设置好ROS的安装目录以及工作空间以便后面Coder部署的时候使用。

◼ROS端的网络设置,ROS版本及工作空间设置
这时候可以将无人车启动。ROS无人小车都差不多,Tianracer的话需要ssh进入系统执行。
roslaunch tianracer_bringup tianracer_bringup.launch
后面建模使用消息接收模块的时候也需要配置ROS的网络。同时要根据消息发布频率设置Sample Time,仿真时间才能和实际时间符合。
◼订阅一个30 FPS的USB摄像头数据
ROS和MATLAB Simulink打通后,只要心中有架构,就可以通过拖拉拽的方式来快速进行很多功能的搭建,例如可以用PID Tuner来进行电机线形控制的整定,可以用Pure Pursuit实现移动机器人路径跟踪,还可以用Image Classifier进行图像处理。
用MATLAB Simulink实现ROS无人车纯跟踪算法
纯跟踪是移动机器人路径规划中比较简单但却实用的一个模型。我们试着从头开始在Simulink中搭建一个阿克曼结构无人车的纯跟踪模型。

◼在Simulink库中选择Pure Pursuit纯跟踪模块
过程就不详细描述了,最终的模型如下。

◼Simulink实现ROS无人车的纯跟踪
输入参考路径,然后利用Pure Pursuit模块进行跟踪,将执行信号传送给Robot Model。
打开Robot Model的子模块,这里要根据无人车的话题名称修改输入输出。对于Tianracer无人车,就是需要下发控制指令(/tianracer/ackermann_cmd),接收里程计信息(/tianracer/odom)。大家如果自己有ROS无人车,可以根据自己的小车话题进行修改。当然Gazebo仿真中的ROS无人车也是可以的。
Robot Model部分的内部构建如下所示:

◼阿克曼结构(类车结构 Car-like)的移动机器人模型
修改完成后可以在参考路径Reference Path中输入数据就可以运行了。这里仅用里程计信息作为最终位姿进行反馈。要在真实环境中稳定运行的话,还需要建图,利用AMCL定位输出的Pose作为反馈。这个可以参考《编队跟随的运动学推导与纯跟踪》的视频,在ROS中利用全局路径或者样条曲线生成参考路径。
一定要注意对于在真车上的测试,开始要尽量给小一点的数值。这个模块还可以扩展激光雷达进行避障。
如果测试没有问题,就可以通过Build & Load直接生成独立的代码,通过刚才配置的SSH和工作空间,将模型部署到机器人上,就可以脱离Simulink运行无人车纯跟踪算法。

◼Simulink的模型可以直接部署到ROS机器人上
在MATLAB中还有很多运动规划的模块,比如使用Mini Snap多项式或者模型预测控制MPC来生成车辆运动控制的信号。在最近更新的MATLAB R2022b中还加入了用神经网络做预测模型。
通过MATLAB Simulink进行深度学习图片分类
上面提到的是对ROS无人车进行简单控制,更“切题”的是采用深度学习的方法处理无人车摄像头采集的画面,我们依然是通过Simulink来完成。MATLAB因为矩阵运算的基因,很适合现代控制理论和计算机视觉等需要大量矩阵运算的方向。实际上MATLAB在深度学习上也是非常强大的,有很完善的深度学习工具箱。只是相对缺少MATLAB和ROS机器人结合的例程。现在图片分类主要都是基于深度学习的方法,我们可以采用googlenet进行分类[3]。需要有Deep Learning Toolbox的Image Classifier组件并且下载googlenet的网络模型。MATLAB中有很多预训练的网络,可以根据准确度和速度要求进行选择[4],我所知道的ResNet和DarkNet都有预训练模型。最新的网络可以在MATLAB深度学习的Github上看看(https://github.com/matlab-deep-learning/MATLAB-Deep-Learning-Model-Hub)。

◼简单的图片分类功能
模型很简单,我们将画面在MATLAB中实时显示,分类结果在连接ypred输出的Display模块中,大家可以看到coffeeMug_label的字样,正如画面内容。将信号通过话题再传回ROS也可以通过Simulink模块来完成。低代码的方式直接获取机器人上的图像采集数据进行识别,对于入门来说非常方便。想要切换不同的网络,只需要双击Image Classifier模块设置一下就好。
深度学习进行物体检测
除了Simulink的方式和ROS通信,我们也可以编写Script和ROS通信。这样就很容易将硬件捕获的图像传入MATLAB,再进行图像处理或者使用深度学习进行分类或者物体检测。MATLAB中有很多利用深度学习进行的物体检测,场景分割,数字、手势识别的例程,也有无人车和移动机器人相关的视觉SLAM,点云处理,运动估计等例程。
这里,我们尝试利用无人驾驶的Kitti数据集(kitti_2011_09_26_drive_0001_synced),用ROS进行数据包的播放,然后用MATLAB接收图像并使用Yolo V4进行物体检测 。我们先根据Detecting objects usingYOLO v4 object detector教程分别使用tiny-yolov4-coco和csp-darknet53-coco网络进行检测。然后使用MATLAB深度学习Github上的预训练网络进行检测(https://github.com/matlab-deep-learning/pretrained-yolo-v4)[5][6][7]。
使用 https://github.com/tomas789/kitti2bag 工具可以将Kitti数据集转换成rosbag (这里也不赘述了,大家可以自行探索,有问题可以评论区留言)。首先要启动roscore并在ROS端播放数据集。
下面我们在命令行窗口输入指令,以tiny-yolov4-coco网络为例。根据无人车的ROS Master 地址进行初始化。
rosinit('192.168.0.37')
然后定义一个空图像消息
emptyimg = rosmessage("sensor_msgs/Image",DataFormat="struct")
订阅摄像头消息
img_sub = rossubscriber("/kitti/camera_color_left/image_raw","DataFormat","struct")
接收
img_data = receive(img_sub,10)
然后转换成正常MATLAB的图像格式
img = rosReadImage(img_data)
获取了正常的图像画面,可以用深度学习来进行处理。这里我们使用tiny-yolov4-coco
name = "tiny-yolov4-coco";
detector = yolov4ObjectDetector(name);
检测
[bboxes,scores,labels] = detect(detector,img);
显示图片及标注结果
detectedImg = insertObjectAnnotation(img,"Rectangle",bboxes,labels);
figure
imshow(detectedImg)
看一下效果,虽然tiny-yolov4-coco网络小,检测速度快,但是识别的精度就差强人意。

◼用tiny-yolov4-coco网络进行检测
同一帧画面,使用csp-darknet53-coco网络就能识别出traffic light,person,bicycle,train等等之前没有识别的物体。

◼用csp-darknet53-coco网络进行检测
我们也可以按照Github中的步骤使用标准YOLOv4-coco网络进行识别,还可以讲每个物体的score显示在识别结果上。

◼使用标准YOLOv4-coco网络进行检测
当然,除了检测结果,还可以使用tic toc来测试识别速度,根据我们的硬件性能和精度要求选择合适的网络。
结语
介绍了几个入门级的Demo,能够体现出MATLAB在ROS无人车上应用的方便与强大。将用于算法研究的MATLAB和支持最多机器人硬件的系统的ROS相结合后,像打开了潘多拉魔盒,研究不用只停留在仿真或者数据集上。而且,除了上面介绍的控制,图像识别等内容,MATLAB与ROS机器人在研究多机协同、强化学习等方面应该也有巨大的潜力。最后,MATLAB有了ROS的支持可以进行机器人硬件在环的仿真测试,又可以通过Coder部署,可以让程序在生产环境运行,让ROS的开发者也能得到MATLAB工业上强大生态链的支持。
参考:
Develop Autonomous Algorithms using ROS
Decentralized Planning for Car-Like Robotic Swarm in Unstructured Environments
使用 GoogLeNet 对图像进行分类
https://ww2.mathworks.cn/help/deeplearning/ug/classify-image-using-googlenet.html
预训练的深度神经网络
https://ww2.mathworks.cn/help/deeplearning/ug/pretrained-convolutional-neural-networks.html
Yolo V2
https://ww2.mathworks.cn/help/vision/ug/multiclass-object-detection-using-yolo-v2-deep-learning.html
Work with Specialized ROS Messages
https://www.mathworks.com/help/ros/ug/work-with-specialized-ros-messages.html
https://www.mathworks.com/help/vision/ref/yolov4objectdetector.html
对于具有离线功能的智能手机应用程序,我正在为Xml文件创建单向文本同步。我希望我的服务器将增量/差异(例如GNU差异补丁)发送到目标设备。这是计划:Time=0Server:hasversion_1ofXmlfile(~800kiB)Client:hasversion_1ofXmlfile(~800kiB)Time=1Server:hasversion_1andversion_2ofXmlfile(each~800kiB)computesdeltaoftheseversions(=patch)(~10kiB)sendspatchtoClient(~10kiBtransferred)Cl
我正在编写一个包含C扩展的gem。通常当我写一个gem时,我会遵循TDD的过程,我会写一个失败的规范,然后处理代码直到它通过,等等......在“ext/mygem/mygem.c”中我的C扩展和在gemspec的“扩展”中配置的有效extconf.rb,如何运行我的规范并仍然加载我的C扩展?当我更改C代码时,我需要采取哪些步骤来重新编译代码?这可能是个愚蠢的问题,但是从我的gem的开发源代码树中输入“bundleinstall”不会构建任何native扩展。当我手动运行rubyext/mygem/extconf.rb时,我确实得到了一个Makefile(在整个项目的根目录中),然后当
我构建了两个需要相互通信和发送文件的Rails应用程序。例如,一个Rails应用程序会发送请求以查看其他应用程序数据库中的表。然后另一个应用程序将呈现该表的json并将其发回。我还希望一个应用程序将存储在其公共(public)目录中的文本文件发送到另一个应用程序的公共(public)目录。我从来没有做过这样的事情,所以我什至不知道从哪里开始。任何帮助,将不胜感激。谢谢! 最佳答案 无论Rails是什么,几乎所有Web应用程序都有您的要求,大多数现代Web应用程序都需要相互通信。但是有一个小小的理解需要你坚持下去,网站不应直接访问彼此
我尝试运行2.x应用程序。我使用rvm并为此应用程序设置其他版本的ruby:$rvmuseree-1.8.7-head我尝试运行服务器,然后出现很多错误:$script/serverNOTE:Gem.source_indexisdeprecated,useSpecification.Itwillberemovedonorafter2011-11-01.Gem.source_indexcalledfrom/Users/serg/rails_projects_terminal/work_proj/spohelp/config/../vendor/rails/railties/lib/r
刚入门rails,开始慢慢理解。有人可以解释或给我一些关于在application_controller中编码的好处或时间和原因的想法吗?有哪些用例。您如何为Rails应用程序使用应用程序Controller?我不想在那里放太多代码,因为据我了解,每个请求都会调用此Controller。这是真的? 最佳答案 ApplicationController实际上是您应用程序中的每个其他Controller都将从中继承的类(尽管这不是强制性的)。我同意不要用太多代码弄乱它并保持干净整洁的态度,尽管在某些情况下ApplicationContr
我是一个Rails初学者,但我想从我的RailsView(html.haml文件)中查看Ruby变量的内容。我试图在ruby中打印出变量(认为它会在终端中出现),但没有得到任何结果。有什么建议吗?我知道Rails调试器,但更喜欢使用inspect来打印我的变量。 最佳答案 您可以在View中使用puts方法将信息输出到服务器控制台。您应该能够在View中的任何位置使用Haml执行以下操作:-puts@my_variable.inspect 关于ruby-on-rails-如何在我的R
我已经在Sinatra上创建了应用程序,它代表了一个简单的API。我想在生产和开发上进行部署。我想在部署时选择,是开发还是生产,一些方法的逻辑应该改变,这取决于部署类型。是否有任何想法,如何完成以及解决此问题的一些示例。例子:我有代码get'/api/test'doreturn"Itisdev"end但是在部署到生产环境之后我想在运行/api/test之后看到ItisPROD如何实现? 最佳答案 根据SinatraDocumentation:EnvironmentscanbesetthroughtheRACK_ENVenvironm
我们的git存储库中目前有一个Gemfile。但是,有一个gem我只在我的环境中本地使用(我的团队不使用它)。为了使用它,我必须将它添加到我们的Gemfile中,但每次我checkout到我们的master/dev主分支时,由于与跟踪的gemfile冲突,我必须删除它。我想要的是类似Gemfile.local的东西,它将继承从Gemfile导入的gems,但也允许在那里导入新的gems以供使用只有我的机器。此文件将在.gitignore中被忽略。这可能吗? 最佳答案 设置BUNDLE_GEMFILE环境变量:BUNDLE_GEMFI
这似乎非常适得其反,因为太多的gem会在window上破裂。我一直在处理很多mysql和ruby-mysqlgem问题(gem本身发生段错误,一个名为UnixSocket的类显然在Windows机器上不能正常工作,等等)。我只是在浪费时间吗?我应该转向不同的脚本语言吗? 最佳答案 我在Windows上使用Ruby的经验很少,但是当我开始使用Ruby时,我是在Windows上,我的总体印象是它不是Windows原生系统。因此,在主要使用Windows多年之后,开始使用Ruby促使我切换回原来的系统Unix,这次是Linux。Rub
我正在玩HTML5视频并且在ERB中有以下片段:mp4视频从在我的开发环境中运行的服务器很好地流式传输到chrome。然而firefox显示带有海报图像的视频播放器,但带有一个大X。问题似乎是mongrel不确定ogv扩展的mime类型,并且只返回text/plain,如curl所示:$curl-Ihttp://0.0.0.0:3000/pr6.ogvHTTP/1.1200OKConnection:closeDate:Mon,19Apr201012:33:50GMTLast-Modified:Sun,18Apr201012:46:07GMTContent-Type:text/plain