image: 图1 无人驾驶交互认知的多维能力模型 view more
Credit: Copyright © 2025 Nan Ma et al.
研究背景
无人驾驶离不开车与人、车与车、车与路之间的交互,然而在实际场景往往面临感知源多、数据异构、恶劣天气等复杂环境和语义多样等挑战,导致人们对无人驾驶行为不够清楚、对它做出的决策不很理解,它也很难和我们人的意图达成一致。
北京工业大学马楠教授团队在《Research》2025年刊发表了题为《Interactive Cognition of Self-driving: A Multi-dimensional Analysis Model and Implementation》的研究论文,介绍了无人驾驶交互认知的研究意义、组成和基础架构以及受维纳模型启发的无人驾驶交互认知以实现具身智能,深入论述建立跨模态感知信息获取、多通道时空数据配准、选择注意力机制、视觉识别与场景理解、具身动力控制等多维度无人驾驶交互认知能力模型;最后,介绍了团队研发的人车路协同无人驾驶智能交互项目及产业应用,深入解析了研发的基于多视角时空图网络的连续动作识别方法(MV-STGCN)用于车与人的肢体语言交互认知,并创新性地提出了基于Nonlinear-CRITIC-TOPSIS法,有效分析了基于MV-STGCN等不同行为识别算法的交互认知能力。新一代人工智能具备有感知、有认知、有行为、可交互、会学习、自成长的特点,未来的无人车一定会表现出多通道跨模态感知智能和人车友好交互协同的特性,“自主驾驶+交互认知”使其成为与乘员可交互的轮式机器人,从而更好地服务于人类社会。
研究意义:
本研究首先建立无人驾驶交互认知能力矩阵,实现类人驾驶能力为目标。在感知智能方面,可包括多个维度,如无人驾驶车辆摄像机、雷达和导航等传感器获取感知数据{Di}能力;多通道跨模态数据配准{Si}能力;对感知信息的选择注意力机制{Ai}能力;视觉识别与理解{Li}能力。在行为智能方面,亦可包括多个维度,如对自身车辆转向、制动以及加速等具身动力控制{Ci}能力;车与各类人的肢体语言交互认知{Pi}能力;车与车的车体语言交互协同{Vi}能力;车与环境的交互认知{Ii}能力,从而构成无人驾驶交互认知的能力矩阵。根据建立的无人驾驶交互认知能力矩阵,进一步构建无人驾驶交互认知的多维能力模型如图1所示。在无人驾驶交互认知过程中,基于维纳模型的无人驾驶交互认知形成态势图簇,包括{Di}、{Si}、{Ai}、{Li}的感知图簇和{Ci}、{Pi}、{Vi}、{Ii}的行为图簇。交互认知能力模型根据态势图簇形成八元组,基于斯皮尔曼等级相关系数的CRITIC—TOPSIS交互认知多维能力评估方法由计算得到综合得分结果,可进一步分析无人驾驶的交互认知能力。
研究总结:
未来汽车发展过程中,无人驾驶与有人驾驶将处于长期混合状态,甚至要二十年或更长。以无人车为代表的移动智能体,具备学习能力,包括试错学习,如向事故学习,不仅有计算智能,还有交互智能和记忆智能。我们建立多维度无人驾驶交互认知能力模型,对感知智能和行为智能进行有效评估,这里也包括评估重要的学习能力,并引入基于斯皮尔曼等级相关系数的CRITIC -TOPSIS法实现交互认知多维能力评价。自2016年团队先后与北京汽车研究总院有限公司、东风悦享科技有限公司、中国汽车工程研究院股份有限公司等单位合作,提出了无人驾驶交互认知理论和研发系列智能交互系统,适应在不同工况、跨不同传感器、不同车辆平台的车辆与人、车辆与车辆之间交互认知与协同,这为无人驾驶车真正被大众所接受起到至关重要的作用。
原文链接:https://spj.science.org/doi/10.34133/research.0903
Journal
Research
Method of Research
News article
Subject of Research
Not applicable
Article Title
Interactive Cognition of Self-driving: A Multidimensional Analysis Model and Implementation
Article Publication Date
2-Dec-2025