【VLNs篇】03:VLMnav-端到端导航与视觉语言模型:将空间推理转化为问答

发布于:2025-05-22 ⋅ 阅读:(20) ⋅ 点赞:(0)
栏目 内容
论文标题 End-to-End Navigation with Vision-Language Models: Transforming Spatial Reasoning into Question-Answering (端到端导航与视觉语言模型:将空间推理转化为问答)
核心问题 如何利用大型视觉语言模型(VLM)实现端到端的机器人导航,克服传统VLM在精细空间输出和有效利用长上下文进行导航方面的局限性,并避免现有模块化方法带来的系统复杂性和任务特定性。
提出方案 提出了 VLMnav 框架,一个将现成VLM转化为零样本、端到端导航策略的具身框架。
核心思想 将导航问题转化为VLM擅长的“关于图像的问答”任务。通过精心设计的提示策略(包括系统提示、任务描述、视觉注释的潜在动作选项、输出格式要求),让VLM直接从当前视觉观察中选择下一步动作。
主要创新点 1. 端到端零样本导航:首次证明VLM可以作为端到端导航策略进行零样本使用,无需任何针对导航数据的微调或预训练。
2. 统一决策过程:不依赖于传统的感知、规划、控制分离的模块化流程,而是由VLM一步直接选择动作。
3. 新颖的提示工程:开发了一种包含视觉注释(将可选动作直接标注在图像上)和详细文本指令的提示策略,引导VLM进行空间推理和探索决策。
4. 通用性与开放性:该方法不依赖特定领域的专家模型或假设,使其具有开放性和对各种下游导航任务的普适性。
5. 问题转换范式:将复杂的导航决策巧妙地重构为VLM更擅长的、基于视觉信息的问答形式,简化了导航系统的设计。
与先前工作对比 - 不同于模块化系统:先前工作常将VLM作为高级推理组件,配合显式3D建图和规划器;VLMnav则避免了这种复杂性和任务特化。
- 不同于微调方法:不需为VLM进行特定导航数据的微调,保留了模型的原始泛化能力。
- 不同于简单提示:克服了简单提示VLM时,其难以生成精细空间输出和有效利用长上下文的问题。
- 直接动作输出:VLM直接选择具体动作,而非像某些方法那样输出高级指令给底层控制器。
评估方式 - 在两个流行的具身导航基准(ObjectNav, GOAT Bench)上进行广泛评估。
- 与基线提示方法(如PIVOT)进行性能比较。
- 进行设计分析(消融实验)以理解不同设计决策(如FOV、上下文历史、深度感知质量)的影响。
主要贡献/发现 - VLMnav在导航性能上显著优于现有的基线提示方法。
- 证明了通过巧妙的提示工程,VLM有潜力在零样本条件下执行复杂的端到端导航任务。
- 为利用大型基础模型解决具身AI问题提供了一种新的思路和有效框架。
关键词 导航 (Navigation), VLM, 具身AI (Embodied AI), 探索 (Exploration)


摘要: 我们提出了VLMnav,一个将视觉语言模型(VLM)转化为端到端导航策略的具身框架。与先前的工作不同,我们不依赖于感知、规划和控制之间的分离;相反,我们使用VLM一步直接选择动作。令人惊讶的是,我们发现VLM可以作为端到端策略进行零样本(zero-shot)使用,即无需任何微调或接触导航数据。这使得我们的方法具有开放性和通用性,适用于任何下游导航任务。我们进行了广泛的研究,以评估我们的方法与基线提示方法相比的性能。此外,我们进行了设计分析,以了解最具影响力的设计决策。我们项目的视觉示例和代码可以在 jirl-upenn.github.io/VLMnav/ 找到。

关键词: 导航,VLM,具身AI,探索

1 引言

在环境中有效导航以实现目标的能力是物理智能的标志。空间记忆以及更高级的空间认知形式,据信在陆地动物和高级脊椎动物历史的早期就开始进化,可能在4亿到2亿年前之间[1]。由于这种能力进化了如此长的时间,它对人类来说几乎感觉是本能的和微不足道的。然而,导航实际上是一个高度复杂的问题。它需要协调低层规划以避开障碍物,同时进行高层推理以解释环境的语义并探索最有可能使智能体实现其目标的方向。

导航问题的很大一部分似乎涉及与回答长上下文图像和视频问题所需的认知过程相似的过程,这是当代视觉语言模型(VLM)擅长的领域[2, 3]。然而,当简单地应用于导航任务时,这些模型面临明显的局限性。具体来说,当给定任务描述并结合观察-动作历史时,VLM通常难以生成精细的空间输出来避开障碍物,并且无法有效利用其长上下文推理能力来支持有效的导航[4, 5, 6]。
在这里插入图片描述

图1:VLMnav的完整动作提示包括三个部分:描述具身性的系统提示,描述任务、潜在动作和输出指令的动作提示,以及显示当前观察结果和带注释动作的图像提示。

为了应对这些挑战,先前的工作已将VLM作为模块化系统的一个组成部分,用于执行高级推理和识别任务。这些系统通常包含一个显式的3D建图模块和一个规划器来处理任务中更具身的部分,例如运动和探索[7, 8, 9, 10, 11]。虽然模块化的优势在于仅将每个组件用于其擅长的子任务,但其缺点是系统复杂性和任务专业化。

在这项工作中,我们表明一个现成的VLM可以用作零样本和端到端的语言条件导航策略。实现这一目标的关键思想是将导航问题转化为VLM擅长的事情:回答关于图像的问题。

为此,我们开发了一种新颖的提示策略,使VLM能够明确地考虑探索和避障问题。这种提示是通用的,因为它可以用于任何基于视觉的导航任务。

与先前的方法相比,我们不使用特定模态的专家[12, 10, 13],不训练任何领域特定的模型[14, 15],也不假设可以从模型中获取概率[12, 10]。

我们在已建立的具身导航基准[16, 17]上评估我们的方法,结果证实我们的方法与现有的提示方法相比显著提高了导航性能。最后,我们通过对几个具身VLM框架组件的消融实验得出设计见解。

2 相关工作

学习端到端导航策略最常见的方法是从头开始使用离线数据集训练模型[18, 19, 20, 21, 22]。然而,收集大规模导航数据具有挑战性,因此,这些模型通常难以泛化到新的任务或分布外的环境。

另一种增强泛化能力的方法是使用机器人特定数据对现有的视觉语言模型(VLM)进行微调[23, 24, 7, 14]。虽然这种方法可以产生更鲁棒的端到端策略,但微调可能会破坏微调数据集中不存在的特征,最终限制模型的泛化能力。

另一条工作路线侧重于零样本使用这些模型[11, 25, 10, 13, 12, 9, 5],通过提示它们使响应与任务规范保持一致。例如,[9, 20]使用CLIP或DETIC特征将视觉观察与语言目标对齐,构建环境的语义地图,
在这里插入图片描述

**图2:方法:**我们的方法由四个关键组件组成:(i)可导航性(Navigability),确定智能体实际可以移动到的位置,并相应地更新体素地图。地图更新步骤的示例显示了将新区域标记为已探索(灰色)或未探索(绿色)。(ii)动作提议器(Action Proposer),根据间距和探索来优化最终动作集。(iii)投影(Projection),将动作在图像上进行视觉注释。(iv)提示(Prompting),构建详细的思维链提示以选择一个动作。

并使用传统方法进行规划。其他工作设计了特定的模块来处理探索任务[13, 12, 11, 26]。这些系统通常需要估计置信度以知道何时停止探索,这通常通过使用token或对象概率[12, 10]来完成。此外,许多这些方法还使用低级导航模块,这些模块将动作选择抽象为预训练的点对点策略,例如快速行进法(Fast Marching Method)[20, 9, 13, 11, 10]。

视觉提示方法: 为了增强VLM的任务特定性能,最近的工作涉及在将图像传递给VLM之前对其进行物理修改。例如[27],它注释图像以帮助识别空间概念。[28]引入了“标记集(set-of-mark)”,它为图像中的对象分配唯一的标签,并在文本提示中引用这些标签给VLM。这种视觉增强显著提高了需要视觉接地的任务的性能。在此基础上,[29, 30]将类似的视觉提示方法应用于网页导航任务,并表明VLM能够零样本完成此类任务。

用于具身导航的VLM提示: CONVOI [31] 在图像上叠加数字标记,并提示VLM输出与上下文线索(例如,停留在人行道上)一致的这些标记序列,用作导航路径。与我们的工作不同,他们 (i) 依赖低级规划器进行避障,而不是直接使用VLM的输出作为导航动作,并且 (ii) 不利用VLM引导智能体朝向特定的目标位置。PIVOT [5] 引入了一种与我们最相似的视觉提示方法。他们通过将一步动作表示为指向图像上标记圆圈的箭头来解决导航问题。在每个步骤中,从各向同性高斯分布中采样动作,其均值和方差根据来自VLM的反馈迭代更新。在优化分布后选择最终动作。虽然PIVOT能够处理各种现实世界的导航和操纵任务,但它有两个显著的缺点:(i) 它没有结合深度信息来评估动作提议的可行性,导致运动效率较低;(ii) 它需要多次VLM调用来选择单个动作,导致计算成本和延迟较高。

3 概述

我们提出了VLMnav,一个导航系统,它接收语言或图像指定的目标 G、RGB-D图像 I、姿态 ξ 作为输入,并随后输出动作 a。动作空间包括围绕偏航轴的旋转和沿机器人框架正面轴的位移,这允许所有动作都以极坐标表示。众所周知,VLM难以推理连续坐标[6],因此我们将导航问题转化为从一组离散选项中选择一个动作[28]。我们的核心思想是以避免障碍物碰撞和促进探索的方式选择这些动作选项。

图2总结了我们的方法。我们首先通过使用深度图像估计到障碍物的距离来确定局部区域的可导航性(第3.1节)。与[20, 13, 12, 31, 9, 10, 26]类似,我们使用深度图像和姿态信息来维护场景的自顶向下体素图,并特别将体素标记为已探索未探索。这样的地图被动作提议器(第3.2节)用来确定一组避免障碍物并促进探索的动作。然后,我们使用投影(第3.3节)组件将这组可能的动作投影到第一人称视角的RGB图像上。最后,VLM将此图像和一个精心设计的提示(在第3.4节中描述)作为输入,以选择一个智能体执行的动作。为了确定情节终止,我们使用一个单独的VLM调用,详见第3.5节。

3.1 可导航性

使用深度图像,我们计算一个可导航性掩码,其中包含机器人可以到达而不会撞到任何障碍物的像素集。

接下来,对于所有方向 θ ∈ fov(视场角),我们使用可导航性掩码来计算智能体可以无碰撞行进的最远直线距离 r。这创建了一组无碰撞的动作 A_initial。图3说明了掩码和可导航动作的示例计算。
在这里插入图片描述

图3:可导航性子程序的示例步骤。可导航性掩码以蓝色显示,构成 A_initial 的极坐标动作以绿色显示。

同时,我们使用深度图像和姿态信息来构建环境的2D体素地图。智能体2米范围内的所有可观察区域都标记为已探索,超出范围的区域标记为未探索

3.2 动作提议器

我们设计了动作提议器例程来优化 A_initial → A_final,这是一个VLM可解释并促进探索的动作集。利用我们体素地图中积累的信息,我们查看每个动作并定义一个探索指示变量 e_i 为:
在这里插入图片描述

为了构建 A_final,我们需要优先考虑未探索的动作,并确保VLM能够辨别的动作之间有足够的视觉间距。我们首先通过添加未探索的动作来构建 A_final,前提是保持 θ_s 的角间距。
在这里插入图片描述

为了充分覆盖所有方向但仍保持探索偏差,我们通过添加受限于更大角间距 θ_△ > θ_s 的已探索动作来补充 A_final:
在这里插入图片描述

最后,我们希望确保这些动作不会让智能体离障碍物太近,所以我们裁剪
在这里插入图片描述

偶尔,智能体可能会卡在没有可导航动作的角落 (A_initial = ∅)。为了解决这个问题,我们添加了一个特殊动作 (π, 0),它将智能体旋转180°。这也允许智能体在快速识别出目标不在某个房间时高效地进出该房间。

提议的集合 A_final 现在具有三个重要特性:(i)动作对应于可导航路径,(ii)动作之间有足够的视觉间距,以及(iii)存在一个工程化的探索偏差。我们将这种探索方法称为探索偏差 (explore bias)

3.3 投影

将这些动作在VLM可以理解和推理的空间中进行视觉接地是下一步。投影组件接收来自3.2节的 A_final 和RGB图像 I,并输出带注释的图像 Î。与[5]类似,每个动作都被分配一个数字并叠加到图像上。我们将特殊的旋转动作指定为0,并在图像的一侧用标签“转身 (Turn Around)”进行注释。我们发现,对其进行视觉注释,而不是仅仅在文本提示中描述它,有助于将其被选择的概率与其他动作的概率联系起来。

3.4 提示

为了引出最终动作,我们精心设计了一个详细的文本提示 T,它与 Î 一起馈送到VLM中。这个提示主要描述任务的细节、导航目标以及如何解释视觉注释。此外,我们要求模型描述图像的空间布局,并在选择动作之前制定一个高级计划,这正如[32, 33]所发现的那样,可以提高推理质量。对于基于图像的导航目标,目标图像除了 T 和 Î 之外,也会简单地传递给VLM。完整的提示可以在图1中找到。

VLM选择的动作 Pvlm(a*|Î,T) ∈ A_final 然后直接在环境中执行。值得注意的是,这不像其他工作[20, 13, 9, 10, 11]那样涉及任何低级避障策略。

3.5 终止

在这里插入图片描述
图4:用于确定情节终止的单独提示

要完成导航任务,智能体必须通过在目标对象的阈值距离内调用特殊动作停止来终止情节。与其他利用低级导航策略[20, 13, 9, 10, 11]的方法相比,我们的方法没有明确选择目标坐标进行导航,因此我们面临一个额外的挑战,即确定何时停止。我们的解决方案是使用一个单独的VLM提示,明确询问是否停止,如图4所示。我们这样做有两个原因:

  1. 注释: 来自第3.3节的箭头和圆圈会给图像带来噪声和混乱,使其更难理解。
  2. 任务分离: 为了避免任何任务干扰,动作调用仅与导航相关,停止调用仅与停止相关。

为避免在离目标太远时终止情节,我们在VLM连续两次调用停止时终止情节。在VLM第一次调用停止后,我们关闭可导航性和探索偏差组件,以确保智能体不会偏离目标对象。

4 实验

我们在两个流行的具身导航基准上评估我们的方法:ObjectNav [34] 和 GoatBench [17],它们都使用 Habitat-Matterport 3D 数据集 [35, 36] 中的场景。此外,我们分析了端到端VLM智能体的性能如何随设计参数(如视场角、用于提示模型的上下文历史长度以及深度感知质量)的变化而变化。

设置: 与[16]类似,智能体采用半径为0.17米、高度为1.5米的圆柱形身体。我们为智能体配备了一个自我中心的RGB-D传感器,分辨率为(1080, 1920),水平视场角(FOV)为131°。相机向下倾斜25°,与[12]类似,这有助于确定可导航性。在我们的所有实验中,我们使用 Gemini Flash 作为VLM,因为它成本低且效率高。

指标: 与先前的工作[17, 16, 37]一样,我们使用以下指标:(i)成功率(SR):成功完成的情节比例;(ii)路径长度加权成功率(SPL):路径效率的度量。

基线: 我们使用 PIVOT [5] 作为基线,因为它与我们的方法最相似。为了研究我们动作选择方法的影响,我们通过评估 Ours w/o nav 来对其进行消融:该方法与我们的方法相同,但没有可导航性和动作提议器组件。此基线的动作选择是一组静态的、均匀间隔的动作选项,包括转身动作。值得注意的是,这些动作不考虑可导航性或探索。为了进一步评估视觉注释的影响,我们还评估了一个基线 Prompt Only,它看到的动作在文本中描述(“转身”、“向右转”、“向前移动”,…),但没有进行视觉注释。这些不同的提示基线可以在图5中可视化。

在这里插入图片描述

**图5:基线:**比较四种不同方法在样本图像上的表现。Ours 包含指向可导航位置的箭头,PIVOT 具有从随机2-D高斯分布采样的箭头,Ours w/o nav 显示均匀间隔的箭头(注意箭头3和5指向墙壁),而 Prompt Only 仅显示原始RGB图像。

我们注意到,在我们的实验和基线中,我们启用了 allow_slide 参数,该参数允许智能体在模拟器中沿障碍物滑动。我们的实验表明,移除此假设会导致性能大幅下降。

4.1 ObjectNav

Habitat ObjectNav 基准要求导航到六个类别之一 [沙发、马桶、电视、植物、椅子、床] 中的一个对象实例。与[16]一样,为了获得最佳路径长度,我们取到该对象所有实例的最短路径的最小值。这些实验使用1.2米[13]的成功阈值进行评估。

运行 SR SPL
Ours 50.4% 0.210
Ours w/o nav 33.2% 0.136
Prompt Only 29.8% 0.107
PIVOT [5] 24.6% 0.106
Ours w/o sliding 12.9% 0.063

表1:ObjectNav结果。 我们在ObjectNav基准上评估了四种不同的提示策略,发现我们的方法在准确性(SR)和效率(SPL)方面均表现最佳。消融 allow_slide 参数表明我们的方法依赖于滑过障碍物。

表1总结了我们的结果。我们的方法在SR方面比PIVOT高出25%以上,并且在SPL方面的导航效率几乎翻倍。我们看到我们的动作选择方法非常有效,与 Ours w/o nav 相比,SR提高了17%。移除视觉注释会导致成功率略有下降,但SPL显著降低,表明视觉接地对于导航效率非常重要。有趣的是,我们发现PIVOT的表现比我们的两个消融实验都差。我们将此归因于其动作空间的表达能力有限,这使其无法执行大幅度旋转或完全转身。这通常会导致智能体卡在角落,从而妨碍其恢复和有效导航的能力。

我们注意到,禁用滑动会导致性能大幅下降,这表明虽然我们的方法在模拟中有效,但在现实世界中很可能导致与障碍物碰撞。虽然我们的可导航性模块可以识别可导航的位置,但它没有考虑机器人的特定尺寸和形状,这会导致偶尔的碰撞,因为我们缺乏明确的回溯先前动作的机制,从而导致智能体卡住。

4.2 Go To Anything Benchmark (GOAT)

GOAT Bench [17] 是一个最近的基准测试,它设定了更高水平的导航难度。每个情节包含5-10个子任务,跨越三种不同的目标模态:(i)对象名称,例如冰箱,(ii)对象图像,以及(iii)详细的文本描述,例如位于房间左侧、靠近图片和枕头的灰色沙发。表2显示了我们在val unseen split上的评估结果。

运行 SR SPL 图像 SR 对象 SR 描述 SR
Ours 16.3% 0.066 14.3% 20.5% 13.4%
Ours w/o nav 11.8% 0.054 7.8% 16.5% 10.2%
Prompt Only 11.3% 0.037 7.7% 15.6% 10.1%
PIVOT [5] 8.3% 0.038 7.0% 11.3% 5.9%

表2:GOAT结果。 在更具挑战性的导航任务GOAT Bench上比较提示策略。在所有三种目标模态中,我们的方法都显著优于基线方法。

在所有目标模态中,我们的模型都比基线取得了显著的改进。这些改进在图像目标中尤其明显,我们的模型实现了几乎是所有基线方法两倍的成功率。这突显了我们系统的鲁棒性和通用性。与ObjectNav结果一样,Ours w/o navPrompt only 的表现相当,并且都优于PIVOT。对于所有提示方法,图像和描述模态都比对象模态更具挑战性,这与[17]中的发现类似。

与SOTA方法的比较: 我们关闭 allow_slide 参数,并与两种最先进的专门方法进行比较:(i)SenseAct-NN [17] 是一种通过强化学习训练的策略,使用学习到的子模块处理不同技能;(ii)Modular GOAT [20] 是一个复合系统,它构建环境的语义记忆地图,并使用低级策略导航到地图中的对象。与SenseAct-NN不同,我们的工作是零样本的,并且与Modular GOAT不同,我们不依赖于低级策略或单独的对象检测模块。

运行 SR SPL
SenseAct-NN Skill Chain 29.5% 0.113
Modular GOAT 24.9% 0.172
Ours w/ sliding 16.3% 0.066
Ours 6.9% 0.049

表3:直接与其他工作比较, 我们看到专门的系统仍然产生更优的性能。我们还注意到这些其他工作使用了更窄的FOV、更低的图像分辨率和不同的动作空间,这可能解释了一些差异。

我们将我们的方法的结果与表3中的这些基线进行比较。有趣的是,这些方法各有优势:强化学习方法可获得最高的成功率。相反,模块化导航系统可实现最高的导航效率。

与这些专门的基线相比,我们的方法在两个指标上都表现出较低的性能,即使在允许滑过障碍物的情况下也是如此。值得注意的是,我们观察到在13.9%的运行中,VLM在距离目标对象1到1.5米时过早地调用了停止。这些实例被归类为失败,因为基准测试仅在智能体距离目标1米以内时才将运行定义为成功。这一发现表明我们的VLM缺乏准确评估到对象距离所需的精细空间感知能力。然而,这也表明在超过30%的运行中,我们的VLM智能体能够接近目标对象,突显了其到达近目标位置的能力。

如先前的实验所示,当不允许滑过物体时,我们方法的性能会急剧下降,因为它经常在障碍物之间受阻,并且没有办法回溯其动作。

4.3 探索VLM智能体导航的设计空间

在本节中,我们研究了在我们的设置中影响基于VLM的智能体导航能力的主要设计选择,所有评估均在ObjectNav数据集上进行。

4.3.1 相机视场角(FOV)对导航有多重要?

在这里插入图片描述

**图6:传感器FOV的影响。**我们评估了四种不同传感器FOV的性能,发现更宽的FOV总是能带来更高的性能。

智能体的导航能力很大程度上取决于其视觉的精细程度。在本节中,我们研究我们的VLM智能体是否能从高分辨率图像中受益。具体来说,我们使用四种不同的FOV运行我们的方法:82° [16]、100°、115°和131°(iPhone 0.5倍摄像头)。如图6所示的实验结果表明,在导航准确性和效率方面都存在积极的扩展行为。

4.3.2 更长的观察-动作历史有帮助吗?

在本节中,我们研究VLM导航智能体是否能有效地使用观察历史。我们以一种简单的方式创建包含观察历史的提示,即,我们连接来自 K 个最近环境步骤的观察和动作,并将此作为上下文输入到VLM中。对于所有这些实验,我们移除了我们的探索偏差(参见第3.2节),以专门隔离更长历史的贡献。

历史长度 SR SPL
无历史 46.8% 0.193
5 42.7% 0.180
10 45.4% 0.196
15 40.4% 0.170

表4:添加上下文历史的影响。 我们将我们的方法与保留过去0、5、10和15个观察和动作的替代方案进行比较。我们发现添加上下文历史并不能提高我们方法的性能。

这些实验的结果如表4所示。我们发现,当简单地连接过去的观察和动作时,我们的提示策略无法利用更长的上下文。实际上,当增加历史长度时,性能保持不变或下降。

4.3.3 完美的深度感知有多重要?

在模拟器中,深度传感器提供准确的像素级深度信息,这对于确定可导航性掩码非常重要。为了研究准完美深度感知的重要性,我们评估了两种仅使用RGB的替代方法:(i)Segformer,它使用[38]将属于地面区域的像素进行语义分割。我们将此区域用作可导航性掩码,并绕过对任何深度信息的需求。我们通过将像素数量乘以一个常数因子来估计到障碍物的距离。(ii)ZoeDepth,它使用[39]来估计度量深度值。我们使用这样的预测值而不是来自模拟器的真实距离,并以原始方式计算可导航性。

运行 SR SPL
深度传感器 50.4% 0.210
Segformer [38] 47.2% 0.183
ZoeDepth [39] 39.1% 0.161

表5:深度消融。 我们评估了两种仅需要RGB的替代方法。我们发现语义分割的性能接近于使用真实深度,而估计深度值会导致显著的性能下降。

本研究的结果如表5所示。我们发现来自[39]的深度估计不足以准确识别可导航区域。实际上,深度噪声导致SR下降10%。然而,令人惊讶的是,使用分割掩码代替依赖深度信息被证明是相当有效的,相对于使用完美深度感知,SR仅下降了3%。总的来说,我们的实验表明,基于VLM的导航智能体仅使用RGB信息也能表现良好。

5 结论

在这项工作中,我们提出了VLMnav,一种新颖的视觉提示工程方法,它使现成的VLM能够充当端到端的导航策略。这种方法背后的主要思想是仔细选择动作提议并将它们投影到图像上,从而有效地将导航问题转化为问答问题。通过在ObjectNav和GOAT基准上的评估,我们看到与先前的迭代基线PIVOT(这是视觉导航提示工程的最新技术)相比,性能有了显著提升。我们的设计研究进一步强调了宽视场角的重要性以及仅使用最少传感(即仅RGB图像)部署我们方法的可能性。

我们的方法有一些局限性。禁用 allow_slide 参数后性能急剧下降,表明存在多次与障碍物的碰撞,这在实际部署中可能会产生问题。此外,我们发现像[17]这样的专门系统优于我们的工作。然而,随着VLM能力的不断提高,我们假设我们的方法可以帮助未来的VLM达到或超过专门系统在具身任务中的性能。


网站公告

今日签到

点亮在社区的每一天
去签到