最新汽车资讯探索ROAD数据集自动驾驶是否能像人般感知环境
自动驾驶汽车如何像人那样感知环境并做出决策?
为了实现自动驾驶汽车像人类一样感知环境并做出决策,研究者们开发了多种方法。其中,牛津布鲁斯大学计算机视觉实验室的团队在端到端方法上取得了突破,他们发布了一套名为ROAD(Road Events Dataset)的数据集。
这个数据集由一个移动智能体(即自动驾驶车辆)、它所执行的动作以及相应场景位置组成。通过模仿学习设置,人类驾驶员对道路情况的反应可以用来训练自动驾驶汽车更深入、更人性化地理解道路环境和其他使用者的行为。
虽然目前的自动驾驶车辆依赖各种传感器收集数据,但ROAD主要关注基于视觉输入。研究人员从大量视频中精选了22段较长时间段,每段约8分钟,这些视频包含多个道路事件(REs)。
每个RE由移动智能体Ag、执行动作Ac和发生该动作的位置Loc定义,即E = (Ag, Ac, Loc)。这些视频被编译成有限列表,其中包括所有分类边界框检测序列。
此数据集规模庞大,有122K帧被标记为560K边界框,并与1.7M唯一标签相关联。这使得科学家能够评估他们选择方法性能,以及创建事件管道,以持续探测道路环境。
然而,尽管如此,该数据集中未考虑行人的行动,对于全面描述复杂场景至关重要。此外,由于仅基于22个视频标注,ROAD可能不足以覆盖所有可能出现的情形,从而限制了其应用范围。