- 简介为了确保自动驾驶车辆在动态环境下的安全驾驶,它们应该具备准确预测周围车辆变道意图并预测它们未来轨迹的能力。现有的运动预测方法在长期预测精度和可解释性方面仍有很大的提升空间。本文提出了LC-LLM,一种可解释的车道变道预测模型,它利用了大型语言模型(LLM)强大的推理能力和自我解释能力。本文将车道变道预测任务重新构建为语言建模问题,将异构驾驶场景信息以自然语言形式作为输入提示,利用监督微调技术专门调整LLM以适应车道变道预测任务。这使我们能够利用LLM强大的常识推理能力来理解复杂的交互信息,从而提高长期预测的准确性。此外,我们在推理阶段的提示中加入了解释要求。因此,我们的LC-LLM模型不仅可以预测车道变道意图和轨迹,还可以提供其预测的解释,增强了可解释性。在大规模高D数据集上的广泛实验表明,我们的LC-LLM在车道变道预测任务中具有优越的性能和可解释性。据我们所知,这是首次尝试利用LLM预测车道变道行为。我们的研究表明,LLM可以编码全面的驾驶行为交互信息。
- 图表
- 解决问题本文试图解决自动驾驶车辆在动态环境中安全驾驶的问题,通过预测周围车辆的变道意图和未来轨迹来实现。现有的运动预测方法在长期预测准确性和可解释性方面仍有改进的空间。
- 关键思路本文提出了LC-LLM,一种可解释的变道预测模型,利用大型语言模型的强大推理能力和自我解释能力。将变道预测任务重新构建为语言建模问题,将异构驾驶场景信息作为输入提示语句,使用监督微调技术将LLM专门用于变道预测任务。这使我们能够利用LLM的强大的常识推理能力来理解复杂的交互信息,从而提高长期预测的准确性。
- 其它亮点本文的亮点是将LLM用于预测车辆变道行为,并提高了模型的可解释性。在推理阶段,将解释性要求纳入提示语句中。在大规模高D数据集上进行了广泛的实验,证明了LC-LLM在变道预测任务中具有优越的性能和可解释性。
- 最近在这个领域中,还有一些相关的研究,例如:LaneGCN、Trajectron++、MTP等。
沙发等你来抢
去评论
评论
沙发等你来抢