来自弗吉尼亚理工大学机器人学与机械实验室(RoMeLa)的工科学生,在Dennis Hong教授的领导下正在进行智能动态拟人机器人(DARwin)的双足类人机器人的开发和研究,目的是对假肢进行研究和开发。DARwin使用NI LabVIEW图形化系统设计平台,能够实现全范围运动,并且能够准确地模拟人类运动。由于动作模拟十分有效,因此很快就对它进行了修改,用于参加RoboCup足球比赛。
RoMeLa的学生使用LabVIEW,就可以分析动态双足运动、设计并开发机器人控制系统的原型。如果开发的原型能够令人满意地工作,他们就将控制算法部署到运行LabVIEW实时模块的PC/104单板计算机上。
通过LabVIEW,设计人员无需成为计算机专家或程序员,就可以开发高级机器人。例如,一位只有有限LabVIEW和机器视觉经验的学生在短短几个小时之内,就设计了一个让机器人利用它带有的IEEE 1394相机和NI机器视觉开发模块跟踪一个红球的算法。工程师们使用LabVIEW和NI硬件,就可以使用功能强大的图形化编程语言快速地设计并开发复杂算法的原型;并通过代码生成方便地将控制算法部署到PC、FPGA、微控制器或实时系统之中;还可以与几乎所有的传感器、执行器进行连接。此外,通过LabVIEW和NI硬件平台,可以支持CAN、以太网、串口、USB等多种接口,方便地构建机器人系统的通讯网络。现在,领域专家不仅仅能够完成机械工程师的工作,还能够成为机器人设计者。
实例分析:弗吉尼亚理工大学使用NI LabVIEW设计全自主地面车参加DARPA 城市挑战赛
DARPA城市挑战赛需要设计一辆全自主地面车能够在城市环境中自动导航行驶。在整个赛程中,全自主车需要在6小时内穿越60英里,途经道路、路口和停车场等各种交通状态。在比赛开始时,参赛者会拿到任务档案公路网地图,并指定需要按一定顺序访问的检查站。
为了尽快到达检查站,车辆需要考虑所选道路的车速限制,可能的道路堵塞,以及其他交通状况。车辆在行驶中必须遵守交通规则,在十字路口注意安全驾驶和避让,妥善地处理与其他车辆之间的互动,以最高30英里的时速避让静态和动态的障碍物。
来自弗吉尼亚理工大学的团队需要在12个月开发出全自主地面车,他们将开发任务分成四个主要部分:基础平台、感知系统、决策规划和通讯架构。
每一部分都基于NI的软硬件平台进行开发:通过NI硬件与现有车载系统进行交互,并提供操作接口;使用LabVIEW图形化编程环境来开发系统软件,包括通讯架构、传感器处理和目标识别算法、激光测距仪和基于视觉的道路检测、驾驶行为控制、以及底层的车辆接口。
1、基础平台
弗吉尼亚理工大学的参赛车Odin是2005年福特翼虎(Escape)
混合动力型越野车,如图3所示,并为自主驾驶做了一定程度的改装。NI CompactRIO系统与翼虎操控系统进行交互,通过线控驱动(drive-by-wire)的方式控制油门、方向盘、转向和制动。学生们利用LabVIEW控制设计与仿真模块开发了路径曲率和速度控制系统,并通过LabVIEW实时模块和FPGA模块部署到CompactRIO硬件平台加以实现,从而建立了一个独立的车辆控制平台。与此同时,学生使用LabVIEW触摸屏模块和NI TPC - 2006触摸屏构建用户界面并安装在控制台。
2、感知系统
为了满足城市挑战赛的竞赛规则,Odin需要能够定位自身的位置,探测周围的路面状况和可用的行驶车道,识别路径中的所有障碍,并适当分类障碍车辆。Odin安装了多种传感器以满足这些需求,其中包括3枚四平面激光测距仪( LRF )安装在保险杠,另有4枚LRF和2架计算机视觉相机安装在车顶行李架,以及高精度的全球定位系统/惯性测量装置系统(GPS/IMU)。
图3 弗吉尼亚理工大学的参赛车Odin
对于每一类感知需求,都通过多个传感器以实现最大的保真度和可靠性。为了达到灵活的传感器融合,规划软件忽略传感器原始数据,并使用一套由特定任务组件产生的独立于传感器的感知信息。比如定位组件使用了LabVIEW卡尔曼滤波器来跟踪车辆的位置和方向;道路检测组件使用NI视觉开发模块结合相机以及LRF的数据来确定路面状况和附近路段的每个车道;对象分类组件使用LabVIEW处理LRF数据以检测障碍并对障碍进行分类,然后预测动态障碍和其他车辆的路径及下一步行动。