《1. 引言》

1. 引言

自主机器人可以获取环境信息,并在各种情况和应用中帮助人类,如救援人类脱离危险,在城市或家庭环境中提供服务,指导或以其他方式帮助有需要的人[1–6]。尽管相关技术和算法取得了巨大的发展,但仍然存在重大挑战。未知环境的复杂性和变异性使得操作人员很难向机器人提供先验信息[7]。因此,在没有人工直接干预的情况下,赋予机器人自主探索和地图构建的能力具有重要意义,这些能力可包括增量地图构建、定位、路径规划、运动控制、导航等。

已有文献对启发式和反应性的探索方法进行了相关研究。在文献[8]中,Yamauchi提出了一种基于前沿的启发式探索算法。在文献[9]中,基于声纳传感器的角度不确定性,作者提出了一种利用声纳传感器阵列进行感知和地图构建的启发式探测策略。在文献[10]中,作者提出了一种基于局部地图的边界图搜索探索方法,该方法采用树形结构表示环境,即使在较大的环境中也能有效地确定下一个目标位置。在文献[11]中,Keidar等描述了一种利用激光探测与测量(light detection and ranging,LIDAR)数据来加速地图边界点检测过程的形态学边界检测方法。在文献[12]中,作者提出了一种利用流速和方位进行快速边界选择的反应性探索策略。

基于仿真的自主探索策略在探测过程中能够帮助测量信息,并根据当前机器人的状态生成目标位姿,因此受到越来越多的研究关注。在文献[13]中,Carrillo等提出了一个利用香农熵和雷尼熵的效用函数来测量机器人的探索行为。在文献[14]中,Lauri等提出了一种正向仿真算法,并阐述了对部分可观测马尔可夫决策过程(partially observable Markov decision process,POMDP)的探索。在文献[1]中,利用部分已知的环境信息,采用红/绿/蓝深度(red/green/blue-depth,RGB-D)传感器在自主测绘探测过程中进行回环检测。在文献[15]中,Bai等提出了一种基于高斯过程回归的探索策略,并利用机器人运动样本预测交互信息。在文献[16]中,自主探索问题被表述为偏微分方程,将信息描述为从已知区域到未知区域的标量场。

现有的探测方法多采用距离传感器生成二维网格地图。然而,二维栅格地图只包含平面几何信息,往往不足以满足人类的感知[17–19]。RGB-D传感器直接提供颜色和深度信息,可以帮助生成三维点云地图。基于RGB-D传感器的同步定位与地图构建(simultaneous localization and mapping,SLAM)系统最初是由Henry等[20]和Engelhard等[21]独立提出的。利用图像特征寻找各帧之间的匹配关系,利用迭代最接近点(iterative closest point,ICP)算法估计RGB-D SLAM系统中的点云变换。在文献[22]中,Klein等提出了并行跟踪与建图算法(parallel tracking and mapping,PTAM)框架,并在双并行线程中实现跟踪和地图构建。Labbe等[23]提出了实时景观建图算法(real-time appearance-based mapping,RTABMAP),在该算法中加入了回环检测线程和内存管理方法,可以实现在线增量地图构建和回环检测,地图构建效率和精度可以随时间保持一致。

现有RGB-D传感器的视场(field of view,FoV)有局限性[24]。为了获得更大范围的环境信息,可以同时使用多个RGB-D传感器。将双RGB-D传感器应用于目视SLAM中[25],用于进行鲁棒位姿跟踪和地图构建,将RGB-D传感器与惯性测量单元(inertial measurement unit,IMU)融合[26],用于室内大范围环境下的地图构建。在文献[27]中,Munaro等提出了一个RGB-D传感器网络,其中多个RGB-D传感器部署在室内环境中进行人体跟踪。在文献[28]中,多个视场不重叠的RGB-D传感器被用来进行直线检测和跟踪,从而提供环境的3D周围视图和形态学信息。

在前期工作中,我们开发了基于RGB-D的定位和运动规划控制方法[24],实现了基于RGB-D的探索[17]。然而,由于RGB-D传感器的视场较小,探测过程的鲁棒性和效率受到限制。在这项工作中,我们对移动机器人使用了双RGB-D传感器。双RGB-D传感器的部署提供了更大的视场,但也带来了干扰、数据同步和处理方面的技术挑战。利用双RGB-D传感器的同步数据,生成定位点,增量构建三维点云图和二维栅格地图。将局部地图推演与全局边界搜索方法相结合,建立了一种自主探测策略,从而避免了局部最优,保证了探测效果。实验结果表明,所开发的系统和方法具有较高的鲁棒性和效率。

本文结构如下:第2节提出了带有双RGB-D传感器的三维和二维地图构建方法,第3节详细描述了自主探测算法;第4节描述了移动机器人系统,验证了所提出的地图构建和探测方法;第5节给出了实验和结果;最后,第6节对本文进行了总结分析。

《2. 使用双 RGB-D 传感器进行地图构建》

2. 使用双 RGB-D 传感器进行地图构建

利用双RGB-D传感器提供的信息可以实时构建三维点云地图。这个过程包括定位点生成、地图构建与回环检测。

《2.1. 位置点创建》

2.1. 位置点创建

图1给出了创建定位点的过程。为了构建三维点云图,必须对传感器数据进行处理;这些数据包括来自双RGB-D传感器的RGB图像和深度图像、来自码盘的里程计数据以及同步数据。双RGB-D传感器之间的位姿已知,可以通过系统装配后的标定确定。

《图1》

图1. 位置点创建的过程。

过去的信息不包含在信息队列的当前帧中,这些信息包括RGB图像、来自双RGB-D传感器的深度图像和里程计信息。图2为机器人操作系统(robot operating system,OS)消息过滤方法实现的同步。

《图2》

图2. 传感器数据同步。

处理同步传感器数据以创建定位点。双RGB-D颜色和深度数据同时组合成一个集成的数据结构,该结构包含当前传感器数据,可用于位置点的创建过程。从RGB图像中获得快速定向(fast and rotated brief,ORB)特征点和对应的描述符。将机器人框架中的三维特征点与二维特征点相结合,并与深度图像中相应的深度数据相结合,得到双RGB-D摄像机之间的位姿。利用上一帧和当前帧匹配的三维特征点,计算出基于极线约束的基本矩阵来确定匹配点。有了足够的匹配点就可以从里程计信息中提取数据,以提供最后一帧和当前帧之间转换的初始推测。

利用匹配的三维特征点,利用基于透视n点(perspective-n-point,PnP)模型的随机样本一致性(random sample consensus,RANSAC)算法估计帧间的变换。帧的词袋(bag of word,BoW)是由相应的ORB描述符创建的,环境词汇是通过在线使用BoW增量构建的,而不是在目标环境中预先训练,因为这样做更适合于自主探索任务。使用上述信息创建位置点Lt ,并初始化当前时间戳t,最后一个位置点与当前位置点之间的边,其权重设置为0。

深度误差和特征失配误差可能存在于未知的环境中,特别是在特征少、光照变化大的地方。RGB-D定位的突变可能会对移动机器人的实时运动控制产生不利影响。此外,虽然里程计变化平稳,但也存在累积误差。然而,RGB-D定位和里程计可以通过扩展卡尔曼滤波器
融合,以实现鲁棒定位。

《2.2. 点云地图构建和回环检测》

2.2. 点云地图构建和回环检测

地图构建与回环检测环节通过图形优化与内存管理方法形成紧密耦合,从而保证实时性与稳定性。在树状网络优化器(tree-based network optimizer,TORO)框架[29]中对定位点的相似性和位置进行了优化,以确保全局一致性。

定位点的相似度决定其存储在工作内存(working memory,WM)或是长期内存(long-term memory,LTM),如图3所示。定位点作为WM中的位置点用于实时循环回环检测,其他位置点作为候选存储在LTM中。
根据候选对象在LTM中的相似性和存储时间,可以将它们取回到WM或删除。

《图3》

图3. 地图构建和回环检测的过程。

首先,Lt 被设置为图像的新顶点,和Lt 具有相似性的最近位置点M通过BoW进行计算,如方程(1)所示,其中,Kmatched 表示与Lt 和最近位置点NLc 相匹配的词包数。KtKc 分别为LtLc 对应的词包数。LtLc 相似性用λ来标记。当λ大于阈值ε时,Lc 并入Lt 中,而Lt 加载到WM中。

λ更新了图上Lt 和其他位置点之间的回环条件概率。Lt 与其他定位点之间的图边权重由TORO进行修正,包括WM和LTM中的定位点。利用ICP算法计算了Lt 与WM中定位点之间的变换,并根据轮距进行了初步的估计。如果变化量小于给定阈值,则建立回环。利用估计的当前变换,更新边权值,修正其他位置点的位姿,保证每个位置点位姿的全局一致性。权重最小、停留时间最长的WM中的定位点将被转移到LTM,权重最大的LTM中的定位点将被取回到WM。全局3D点云地图将根据图中正确的信息进行更新。

图4为双RGB-D传感器的三维点云分割和二维网格地图构建过程。在点云库中使用体素滤波器对点云图进行体素化和降采样(体素大小设置为0.05 m),选择一个点集,用k近邻算法估计其法向量。点集大小k设为10,计算效率与精度一致。法向量估计如方程式(2)所示。

式中, 为每个点的坐标;为对应点集的中心坐标;为协方差矩阵; 分别为矩阵的特征向量和特征值。选取特征值最大的特征向量 作为点集 的法向量[30]。利用上述信息可以确定点云中的点集并对其进行分割。如果点集有一个偏离垂直方向的法向量超过给定的阈值,它就被设为障碍。否则,就有可能进入下一步。然后用欧几里得聚类提取方法对点集进行处理。如果其中心高度大于给定的阈值,则将该点集设置为障碍。否则,它将被视为自由空间。栅格地图由点云障碍物部分的坐标(x, y)构成。

《图4》

图4. 三维点云分割和二维网格地图构建过程。

机器人可能会经过一个视觉特征较少或特征与周围环境相似的区域,导致回环检测[31]失败。在这种情况下,移动机器人可以在探索过程中执行自主运动;这改变了双RGB-D传感器的视场以获得更多的环境信息。

《3. 自主探索》

3. 自主探索

将实时更新的二维栅格地图和定位作为自主探索的先验信息。将更新后的贴图和里程计信息用于下一个目标位姿生成,从而扩展地图并进一步探索环境。

《3.1. 基于 POMDP 模型的自主探索》

3.1. 基于 POMDP 模型的自主探索

假设环境部分已知且包含随机信息,则移动机器人的探索过程可以用POMDP模型来描述。

• 表示探索任务中目标生成的决策阶段。

表示探索任务的状态空间,包括移动机器人状态和地图状态都是可见的(不考虑将给定的运动应用到机器人上以及将定位数据应用到机器人上产生的误差,因此是完全可观测的,而是部分可观测的)。

•  表示根据机器人运动约束的可行运动。

表示观测空间。

• 表示状态传递模型,状态传递模型由组成。描述了一个状态转移从当前移动机器人状态和运动到下一个状态表示栅格地图点存在物体的概率范围。独立于这意味着对于任意的•  为观测模型,如图5所示。根据当前移动机器人的姿态和二维栅格地图,通过光线追迹模型得到当前状态的观测值。

《图5》

图5. 基于POMDP模型的探测过程。

• 表示由状态、观察和行为构建的回报函数,由信念状态值度量。选择互信息函数作为回报函数的形式。

基于二维栅格地图和机器人位姿状态,生成一系列移动机器人运动用于轨迹仿真,从中选择当前目标位姿。运动由回报函数进行评价,目标是在相应的决策时间内使回报函数最大化。在基于POMDP模型的探索过程中,回报函数定义为互信息函数,如方程式(3)所示。 表示由个粒子的状态决定的决策元中的回报函数值。粒子在机器状态 、地图状态 的观测状态 下,从信念状态 进行模拟。

方程式(3)的第一项为移动机器人状态的期望信息增益。考虑到实验环境是一个可以正确执行给定运动的平坦地形,我们假设移动机器人运动模型 [32]中没有噪声,如方程式(4)所示。这个假设与选择粒子状态的决定相一致,选择粒子状态的最大似然值 作为预期结果。因此,将机器人状态与观测描述的互信息增益设为0。

方程式(4)的第二项是地图构建状态的预期信息增益,由地图构建状态的互信息增益和观测值表示。该积分是通过对仿真过程中所选网格的熵值求和来实现的。网格的概率范围为[0, 1]:0表示该点确定不存在障碍物,1表示该点确定存在障碍物。二元随机变量的熵定义在方程式(5)中。

基于传感器的射线追踪观测模型确定了传感器的熵和范围。模型描述如下:定义一个扇形区域为原点,最大观测范围r为半径,观察角θ为中心角。选取扇形射线追踪波束方向网格的概率值,计算相应的熵值。对于概率未知的网格(即网格在未知环境中),将熵值设为1。

《3.2. 局部地图推演与全局边界搜索》

3.2. 局部地图推演与全局边界搜索

移动机器人自主探索过程由POMDP模型描述,其中每个历元的目标位姿由局部地图推演和全局边界搜索相结合的策略生成,如图6所示。目标位姿Xg 及其回报函数值Rg 由当前二维栅格地图与机器人位姿局部地图构建仿真过程生成。该过程被列为程序1,包括粒子采样、权重计算和重新采样。参数包括迭代次数I、粒子数N、抽样数量样本分布核心函数 、光线追踪模型、仿真状态、重采样下界 和折扣因子

《图6》

图6. 探测策略示意图。

在程序1中给出了基于POMDP模型的局部地图构建仿真过程。首先,算法在i = 1, ..., I上迭代,在n = 1, ...,N上模拟粒子。根据迭代次数,选择核函数 进行粒子采样,生成运动序列。为保证初始采样的均匀性和后续采样的较好解,将 设为均匀分布,将设为正态分布,初始采样 的均值为。根据移动底盘车的速度范围,设置均匀分布的范围和正态分布的协方差矩阵。基于移动机器人运动模型和生成的运动,更新当前粒子的位姿。从光线追踪模型更新地图观测值,并给出观测范围,同时更新每个粒子的回报函数值。采样数的递增线性序列,是收敛于概率意义最优解的一种较快的方法。仿真阶段进行次后,更新粒子的权值。基于射线追踪模型和反向传感器模型,利用观测对前后信息进行评价。在实际应用中,奖赏函数是利用先验信息和后验信息进行计算的。计算先验概率和后验概率的对数概率,以随机值作为逆传感器模型的噪声。折现系数表示模拟信息与当前信息之间的关系。例如,>1表示进一步的模拟信息具有更多的权重。如果粒子的权重过于分散,那么粒子应该重新取样,观察应该生成新粒子的位姿和地图。从最大权值的运动序列中模拟目标位姿和相应的回报函数值。

优化时间和仿真范围必须受到限制。在有限的仿真范围内,利用蒙特卡罗方法可以得到局部地图构建仿真过程概率意义的最优解。移动机器人在进入局部信息最优区域时,可能会继续在周围踱步,或者被卡住。因此,为了避免局部最优,本文提出了一种全局边界搜索策略。

利用基于广度优先搜索算法的全局边界搜索策略,检测已知区域(由探索过程构建)与未知区域之间的边界。选择距离当前移动机器人姿态最近的连通边界点,将连通点定义为周围有8个网格的点。由于这种启发式搜索策略无法确定边界点附近可观测的未知环境,因此无法确定探测时间和区域。全局边界搜索策略可以避免使用当前已知地图的局部最优。利用局部地图推演策略,可以对未知环境的信息进行测量,从而保证在每个探测阶段都能获得新的信息。综合策略如图6所示。通过局部地图构建仿真得到目标位姿 及其回报函数值 。如果 ,可以发送到目标构成运动控制过程。否则,全局边界搜索策略就会引发新的目标姿态。当移动机器人在给定时间内到达目标位姿时,新的探索过程开始;或者,如果时间超过限制,当前的探索和运动控制过程将暂停。

奖励、迭代次数和粒子数的下限值主要影响探索过程的效率和鲁棒性。下界保证了局部地图构建仿真的有效性,全局边界搜索可以避免局部最优。增加迭代次数和粒子数可以获得更多的信息,但是随着计算量的增加,效率可能会降低。

《4. 系统实现》

4. 系统实现

《4.1. 双 RGB-D 传感器的系统实现》

4.1. 双 RGB-D 传感器的系统实现

本文通过建立移动机器人系统来验证自主探索和地图构建法的有效性。该系统由Yujin Kobuki移动底盘、双RGB-D传感器和HP Envy 15-j105tx移动计算单元组成。该方法利用体感获得的环境颜色和深度数据。RGB和深度图像的分辨率为640×480像素,频率为30 Hz。视场是水平57°,垂直43°,在室内环境下的深度范围为0.5~5 m[33]。Yujin Kobuki移动底盘采用两轮差速驱动,直径为0.46 m,最大运转线速度为70 cm·s–1 ,角速度为180(°)·s–1 。里程计频率最高为50 Hz。移动计算单元配备参数为CPU i7 4702M和8GB RAM。ROS Indigo、OpenNI RGB-D驱动程序、the Point Cloud Library和OpenCV也安装在移动计算平台上。

体感通过结构光测量获得深度数据,主要是将红外散斑投射到被测物体上,通过互补金属氧化物半导体(complementary metal-oxide semiconductor,CMOS)红外传感器获取深度信息。当多个体感视场重叠[34]时,会出现干扰问题。为避免传感器之间的结构光干扰,扩大系统的视场,此处安装了双体感RGB-D传感器,如图7所示。其相对于移动底盘的姿态如方程式(6)所示。[x,y, z]T 和[θ, ϕ, ψ]T 是体感框架相对于移动机箱的平移角和ZYX欧拉角。双体感RGB-D传感器与移动机箱之间的转换由方程式(6)给出。

《图7》

图7. 移动机器人硬件平台。

《4.2. 系统工作流程》

4.2. 系统工作流程

图8所示为移动机器人自主探索地图构建工作流程。

《图8》

图8. 移动机器人自主探索的工作流程。

(1)地图构建和定位。根据双体感RGB-D传感器和里程计从移动底盘获得的环境RGB-D信息,采用RT-ABMAP算法估计定位信息。将该姿态与基于扩展卡尔曼滤波器(extended Kalman filter,EKF,集成在ROSrobot_pose_ekf包中)的RGB-D定位和里程计相融合,构建三维点云图。从三维点云生成二维栅格地图进行自主探索和运动控制。

(2)局部地图推演与全局边界搜索相结合的策略。在正向仿真算法的基础上,利用二维栅格地图和当前位姿生成探索过程的目标位姿,利用栅格地图的部分信息进行仿真策略,利用栅格地图的全局边界点进行搜索策略。

(3)基于运动约束的动态窗口运动控制。根据机器人当前的姿态 、二维网格地图 和探索策略中的目标姿态,生成机器人的运动控制命令。为了保证地图构建过程的稳定性,在动态窗口控制算法[35]的基础上,加入了运动约束的代价函数。

在探索算法,一个可用的目标和当前位置之间的距离为0.5~10 m,机器人的最大速度为0.5 m·s–1 ,周期时间低于1.0 s。在下一个目标的探索过程中,为了提供环境信息,我们更新了点云地图、栅格地图以及位姿。点云和栅格地图更新速率为1 Hz,位姿更新速率可提高到20 Hz。因此,这些参数能够满足探测过程的要求。

《5. 实验和结果》

5. 实验和结果

《5.1. 实验设置》

5.1. 实验设置

自主探索与地图构建的环境设置如图9(a)所示,移动机器人从起始区域出发,执行自主探索与测绘任务。当机器人到达目标区域时,任务就完成了。此次实验测试了8种室内场景,如图所示。场景(i)是一个矩形区域三面均存在障碍物,只有一个出口的场景。场景(ii)~(iv)为过道,宽度分别为1.43 m及0.85 m[(iii)和(iv)分别为过道的入口和出口],场景(v)和(vii)为障碍物分布密集的区域,过道宽度分别为0.90 m与0.78 m。场景(vi)和(viii)为空旷区域的不同视角。根据实验室中移动机器人的探索过程,场景分为单连通区域和多分支区域两类。场景(i)~ (iv)为单一连接区域,只有一个通道连接场景(i)和场景(iv)。移动机器人从现场经过90°右转从(i)场景切换到场景(ii),然后经过90°再右转到场景(iii)和(iv)。此处传感器的视线受到了挡板和通道宽度的限制。挡板高度为1.5 m,大于RGB-D传感器的垂直范围。场景(v)~(viii)为多分支区域。由于探测算法的随机性,移动机器人对这些场景的探测顺序并不是唯一的。因此,实验任务从室内环境的开始区域激活,进入目标区域后停止。开始区域为过道中的矩形区域,从右侧柜子边缘到后面障碍物的距离为1.18 m,宽度为1.12 m。目标区域是场景(vi)和(viii)中以门和墙为边界的矩形区域,长度为2.68 m,宽度为2.44 m。

《图9》

图9. 自主探索与测绘实验。(a)实验环境场景(i)~(viii);(b)构建三维点云图;(c)从自主测绘探索过程中生成二维栅格地图和移动机器人轨迹。

在单连通区域,视场是有限的,不管部署的是单个还是双RGB-D传感器。在多分支区域,场景更宽,双RGB-D传感器可以检测到更多的信息并将其输入系统。因此,本实验通过比较单连接区域和多分支区域的实验性能,验证了双RGB-D传感器的有效性。

《5.2. 结果》

5.2. 结果

将局部地图推演方法与全局边界搜索方法相结合,保证了模拟目标位姿在观测范围内是最优的,通过搜索地图边界可以避免局部最优。至此,探测任务圆满完成。

图9(b)为移动机器人自主测绘探测实验构建的三维点云图。利用移动机器人测程和双RGB-D传感器获取的信息构建了实验室三维点云图,它包括狭窄的通道、障碍物和开放区域。构建的三维点云图与室内实际环境较好地吻合。这些对应包括场景(i)的后方箱子、场景(ii)的边沿色块、场景(iv)和(vii)的障碍物、场景(vi)的门、场景(vi)和(viii)的空旷区域。在自主探索的过程中,机器人进行增量式构建3D点云地图,保持了几何关系的相对一致以及连贯对接。

图9(c)为三维点云图与移动机器人轨迹生成的二维栅格地图。在这个二维栅格地图中,x轴的长度为11.40 m,y轴的长度为9.40 m。实验室的实际尺寸为11.04 m×7.93 m。起始区域的尺寸为1.25 m×1.20 m,目标区域的尺寸为2.80 m×2.43 m。二维地图中障碍物的大小、位置、尺寸与实际情况吻合较好。

通过局部地图推演和全局边界搜索相结合的方法,移动机器人在自主测绘和探测过程中不断获取环境信息。此外,在信息不足的情况下,通过触发边界搜索方法,可以在信息充足的情况下恢复到目标的轨迹。如果在当前的机器人姿态中无法模拟出具有足够信息的目标姿态,则触发全局前沿搜索策略,以此改变机器人传感器的视图,从而进一步向目标区域探索;例如,场景可能从(iv)改变到(v),与图9中(–1.7, –3.6)对应。

图10为自主测绘与探测过程的时间-面积曲线,对比了单一RGB-D传感器与双RGB-D传感器的区别。面积由生成的二维栅格地图测量。双RGB-D传感器共探测面积31.0 m 2 ,用时196 s,单RGB-D传感器共探测面积27.6 m 2 ,用时297 s。在单连通区域,自主移动机器人系统获得的视图受通道限制。因此,单一RGB-D传感器的探测效率与双RGB-D传感器系统相似。在多分支区域,双RGB-D传感器的探测成本时间明显小于单RGB-D传感器。此外,双RGB-D传感器覆盖的探测区域比单个RGB-D传感器覆盖的区域要大。与单RGB-D传感器相比,双RGB-D传感器的移动机器人可以获得更多的环境信息。在自主测绘探测过程中,地图面积随着时间的推移而稳定增长,因此验证了该方法的有效性。

《图10》

图10. 将单个RGB-D传感器与双RGB-D传感器进行对比,得到的自主测绘和探测过程中的时域曲线。

《5.3. 讨论》

5.3. 讨论

如果局部地图仿真算法和全局边界搜索算法都不能生成可用的探测目标,探测过程就会中止。如果不能生成足够信息的目标,局部地图构建仿真算法可能会失败。此外,如果找不到可行的连通边界点,全局边界搜索算法可能会失败。如图6所示,如果两种算法都失败,则当前的探索过程将停止。机器人可以呆在原地,回到起点,或者执行人类操作员的命令。

在自主测绘探测过程中,采用双RGB-D传感器提高了探测效率。如果部署更多的RGB-D传感器,定位精度可能会进一步提高,在其他应用程序[25]中已经观察到这一点。更多的传感器可以集成到系统中,用于特定应用的测量[6]。传感器的数量和类型可以根据应用、计算成本、实时能力和精度要求来确定。

为了获得更多的信息,提高探测效率[36],多个机器人可以在探测过程中进行协作。自主探索与操作人员远程操作的融合有望克服机器人自主[37]中可能存在的缺陷。

《6. 结语》

6. 结语

在这项工作中,我们提出了一种使用双RGB-D传感器对未知环境进行自主探测和地图构建的系统方法。同步和处理的RGB-D数据提供了环境颜色和深度信息。2D/3D栅格地图都是增量生成的。结合局部地图推演和全局边界搜索方法进行自主探索,在运动控制中采用动态动作约束,避免局部最优。实验结果表明,所开发的系统和方法具有较高的鲁棒性和效率。

未来的工作将集中在三维点云地图的语义分析上,以便在探索过程中获得丰富的环境信息。

《致谢》

致谢

感谢加拿大舍布鲁克大学的Mathieu Labbé和芬兰坦佩雷理工大学的Mikko Lauri提出的有益建议。

感 谢 国 家 自 然 科 学 基 金(61720106012和61403215)、机器人学国家重点实验室基金(2006-003)和中央高校基本科研业务费专项资金对本工作的支持。

《Compliance with ethics guidelines》

Compliance with ethics guidelines

Ningbo Yu and Shirong Wang declare that they have no conflict of interest or financial conflicts to disclose.