控制与决策  2020, Vol. 35 Issue (10): 2528-2534  
0

引用本文 [复制中英文]

尹慧琳, 伍淑莉, 王亚伟, 王杰. 基于层次因子图的智能车环境感知和态势认知模型[J]. 控制与决策, 2020, 35(10): 2528-2534.
[复制中文]
YIN Hui-lin, WU Shu-li, WANG Ya-wei, WANG Jie. An intelligent vehicle environment perception and situation cognition model based on hierarchical factor graph[J]. Control and Decision, 2020, 35(10): 2528-2534. DOI: 10.13195/j.kzyjc.2019.0049.
[复制英文]

基金项目

国家自然科学基金项目(61701348);科技部国家重点研发计划新能源汽车专项项目(2016YFB0100901, 2018YFB0105101)

作者简介

尹慧琳(1977-, 女, 副教授, 从事智能车环境认知等研究, E-mail: yinhuilin@tongji.edu.cn;
伍淑莉(1994-), 女, 硕士生, 从事自动驾驶、机器学习的研究, E-mail: 496993713@qq.com;
王亚伟(1994-), 男, 硕士生, 从事自动驾驶、机器学习的研究, E-mail: yawei992120@foxmail.com;
王杰(1992-, 男, 硕士生, 从事自动驾驶、机器学习的研究, E-mail: 1034025293@qq.com

通讯作者

尹慧琳, E-mail: yinhuilin@tongji.edu.cn

文章历史

收稿日期:2019-01-09
修回日期:2019-06-04
基于层次因子图的智能车环境感知和态势认知模型
尹慧琳 , 伍淑莉 , 王亚伟 , 王杰     
同济大学 中德学院,上海 200092
摘要:为了提升智能车的环境认知能力, 根据数据信息的抽象化程度不同提出一种基于层次因子图的智能车环境感知和态势认知模型.首先, 基于人类驾驶认知的分层记忆机理, 按照被处理信息由低到高的抽象层次, 将环境认知分为环境目标感知和态势认知两大任务模块, 提出层次化框架; 然后, 确定层次因子图的拓扑结构并实现层次因子图模型, 目标感知层具体体现为多源信息融合和目标跟踪, 态势认知层具体体现为车辆变道等态势预测; 最后, 基于PreScan仿真环境数据、NGSIM真实驾驶数据集及DBNet自动驾驶实测数据集3种数据, 验证所提出方法的有效性, 并与现有的卡尔曼滤波方法和隐马尔科夫模型方法进行比较, 以验证层次因子图在跟踪、融合、态势预测正确率和准确率方面的优势.
关键词环境感知    态势认知    因子图    多源信息融合    智能车    目标跟踪    
An intelligent vehicle environment perception and situation cognition model based on hierarchical factor graph
YIN Hui-lin , WU Shu-li , WANG Ya-wei , WANG Jie     
Chinesisch-Deutsches Hochschulkolleg, Tongji University, Shanghai 200092, China
Abstract: In order to improve the environment cognition ability of intelligent vehicles, this paper proposes a hierarchical factor graph based environment perception and situation cognition model according to the abstraction level of data information. Firstly, based on the hierarchical memory mechanism of human driving cognition, according to the abstract level of processed information from low to high, environment cognition is divided into two task modules: object perception and situation awareness. Then, the topological structure of the hierarchical factor graph is determined and the hierarchical factor graph model is realized. The object perception layer is embodied in multi-source information fusion and object tracking. The situation awareness layer is embodied in situation prediction such as vehicle lane change. Finally, based on PreScan simulation environment data, NGSIM real driving data set and DBNet real data set, the effectiveness of the proposed method is verified. Compared with the existing Kalman filter method and hidden Markov model method, the advantages of hierarchical factor diagram in tracking, fusion, situation prediction accuracy and accuracy are verified.
Keywords: environment perception    situation cognition    factor graph    multi-source information fusion    intelligent vehicle    object tracking    
0 引言

由于在保障安全、提高效率、改善环境、节约能源方面的优势, 智能车已成为国内外的研究热点.从辅助驾驶到无人驾驶, 其相关理论研究与技术实现都取得了丰硕成果, 但特斯拉自动驾驶致命事故和谷歌首次担责的碰撞事故对自动驾驶提出了挑战.处于自动驾驶状态的特斯拉在交叉路口撞进拖车底部, 该致命事故凸显了自动驾驶系统在环境感知方面的不完备; 谷歌无人驾驶汽车变道时与侧后方公交车发生蹭撞, 该事故体现了智能车在目标行为预判方面的不足.由这两个典型事故可见, 目前国际最先进的智能车认知水平与人类的认知水平尚存在较大差距, 不具备可靠处理复杂交通状况的能力如何提升智能车的环境认知能力是亟待解决的关键问题.针对这一问题, 本文根据数据信息的抽象化程度提出层次化的智能车环境感知和态势认知模型.

智能车的环境感知基于多种传感器, 如摄像头、超声波雷达、毫米波雷达、激光雷达、GPS/惯导等, 通过多传感器信息融合, 对道路、交通标志、行人车辆等环境信息进行有效感知.多源信息融合[1]根据数据的抽象层次在多级别上对多传感器信息进行综合处理, 在较低层次上实现对目标状态或属性的估计, 较高层次上实现对综合态势和威胁的评估.Chavez等[2]根据D-S证据理论提出了感知融合架构, 基于激光扫描、雷达、摄像头3种传感器, 利用动态障碍物的动态特征及形状特征, 实现对目标的准确检测和分类.Kim等[3]基于激光扫描和立体视觉传感器, 重点解决时间不同步问题, 通过信息融合进行目标检测和匹配, 实现障碍物识别和跟踪.Ristic等[4]针对传感器数据的不确定性, 提出在随机有限集框架下的信息融合方法, 进行栅格地图的更新, 实现即时定位与地图构建.李德毅[5]提出多传感器融合的时空统一方法, 采用变粒度路权雷达的形式将各类传感器信息进行空间统一, 并将各类传感器信息统一到同一个坐标系, 建立智能车辆的基础信息框架.周俊静等[6]利用贝叶斯推理和证据理论信息融合方法进行运动目标检测.这些信息融合在环境感知中的应用大都只限于将不同传感器数据进行数据级和特征级融合, 实现目标检测和识别, 大量抽象信息尚未得到充分利用.本文对数据流的高层次关系进行提取与处理, 利用人类驾驶员认知与自动驾驶的映射, 研究驾驶态势评估, 从而提升自动驾驶系统的认知水平.

在态势认知方面, 主要利用支持向量机[7]、隐马尔可夫模型(hidden Markov model, HMM)[8]、卡尔曼滤波(Kalman filter)[9]和贝叶斯分类器[10]等预测车辆的宏观驾驶行为, 如直行、左转和右转.贝叶斯网络作为一种知识表示和进行概率推理的框架, 在具有内在不确定性的推理和决策问题中具有显著优势, 在先进驾驶辅助系统的态势威胁估计[11-12]中有广泛应用.Ulbrich等[11]针对变道行为决策, 基于动态贝叶斯网络, 综合考虑道路场景、周边车辆状态、车辆自身状态参数进行态势估计, 得到向左、向右变道的可能性概率及获益概率.Schubert等[12]提出统一贝叶斯框架, 通过自适应概率节点和无迹变换, 将用于目标估计的贝叶斯滤波和用于态势估计的贝叶斯网络直接结合, 同时实现目标估计和态势估计, 并通过自动变道行为决策验证方法的有效性.贝叶斯网络属于概率图模型中的一类, 概率图模型是概率论和图论相结合的产物, 为同时处理问题的不确定性和复杂性提供了工具[13].常用的概率图模型主要包括贝叶斯网络、马尔科夫网络、因子图等.文献[14-15]提出了因子图、和积算法的概念以及因子图在替代卡尔曼滤波、隐马尔科夫模型和贝叶斯网络上的应用, 指出贝叶斯网络和马尔可夫网络只需经过简单的步骤即可以转化为因子图, 使得因子图作为一种高效的通用模型在替代其他概率图模型上成为可能.因子图具有很强的信息表达能力, 可以将复杂的“全局”函数因式分解为简单的“局部”函数, 相比贝叶斯网络和马尔可夫模型, 因子图利用和积算法直接求解边缘概率的方式大大简化了计算过程, 计算效率也显著提升, 且因子图对于数据的处理方式统一, 操作起来更加简单.

基于因子图尤其是层次因子图的优势, 本文利用多源信息融合和人类驾驶员认知机理, 构建并实现了基于层次因子图的智能车环境感知和态势认知模型及算法.首先, 基于人类驾驶认知的分层记忆机理, 按照被处理信息由低到高的抽象层次, 将环境认知分为环境目标感知和态势认知两个层次, 提出层次化框架; 然后, 确定层次因子图的拓扑结构并实现层次因子图模型, 目标感知层具体体现为多源信息融合和目标跟踪, 态势认知层具体体现为车辆变道等态势预测; 最后, 基于PreScan仿真环境数据、NGSIM真实驾驶数据集及DBNet自动驾驶数据集, 与现有的Kalman filter方法、HMM方法进行比较, 验证了所提出方法的有效性.

1 系统层次化框架及模型结构

智能车行驶过程面对的是多对象紧密协同的高度交互、动态演化的复杂系统, 且传感器测量误差和干扰会导致数据信息的高度不确定性.如何从不确定的知识和信息中作出推理, 是实现环境准确理解和预测的关键.因子图是对复杂不确定性问题进行建模、推理的重要工具之一, 并且可以贯穿低层次数据融合、特征融合和高层次态势评估.基于人类驾驶认知的分层记忆机理, 按照被处理信息由低到高的抽象层次, 对因子图进行相应分层, 采用包括环境目标感知和态势认知的层次因子图.目标感知是指对目标的识别和跟踪, 即对GPS/惯导、图像、毫米波雷达、激光雷达等传感器数据进行处理, 提取特征参数, 如障碍物目标的大小、路沿点位置等, 然后对目标进行跟踪; 态势认知以目标感知的结果为基础, 对将要发生的事件及态势进行预测, 分析目标与事件间的影响和关系, 根据不同的自动驾驶需求为规划决策提供信息, 如路权变化趋势和是否左右变道、转弯等.

本文目标感知层具体体现为多源信息融合和目标跟踪, 态势认知层具体体现为车辆变道等态势预测.层次因子图[16]图 1所示, 其中圆形节点为变量节点, 代表全局多元函数中的变量; 方形节点为因子节点, 代表因式分解中的局部函数; 虚线椭圆表示复合变量; 虚线矩形表示复合因子.层次因子图在标准因子图的基础上增加了有关复合变量和复合因子的定义, 使得层次因子图在形式上看起来比标准因子图更为复杂.但实际上, 复合变量和复合因子是应用层次化建模思想进行建模过程中即可获得的中间结果, 借助复合变量和复合因子的定义, 不仅可使复杂系统的建模过程更为条理有序, 也为简化推理过程、实现精确推理提供了一条有效途径.

图 1 环境认知层次因子图
2 因子图及和积算法

因子图是表达多元函数分解结构的二分图, 可以形式化定义一个二元组FG = (V, F)[16].其中:V为一组变量节点的集合, 每个变量节点对应多元函数中的一个变量; F为一组因子节点的集合, 每个因子节点对应多元函数因式分解中的一个局部函数.当且仅当变量是局部函数的自变量时, 因子图中相应变量节点与因子节点之间存在一条相连的边.和积算法(sum-product algorithm)是因子图的常用算法, 利用该算法可以在因子图的相邻节点间传递消息, 通过这种方式实现边缘函数的计算.和积算法中传递的消息分为2种:一种是由变量节点向因子节点传递的消息, 一种是由因子节点向变量节点传递的消息.消息更新规则如下:

1) 由变量节点x传递到因子节点f的消息更新规则为

(1)

2) 由因子节点f传递到变量节点x的消息更新规则为

(2)

其中:h为因子节点, y为变量节点, X = n(f)为与函数相关的所有变量, 为除x外的其他变量求和.

3 层次因子图实现 3.1 用因子图及和积算法实现多传感器融合

因子图构建系统某一时间段内的图模型, 基于后验估计理论实现数据融合, 即在给定所有可用测量值后, 计算系统状态的联合概率分布函数的最大后验概率估计.

针对智能车环境感知研究, 基于因子图的融合具体实现状态估计, 即对周围交通参与者目标(车辆、行人等)位姿进行估计.对目标的精确定位直接影响SLAM(simultaneous localization and mapping, 即时定位与地图构建)的精度, 因此建立系统的离散线性动态方程.

已知高斯密度函数的通用公式, 将两个高斯密度函数相乘, 可以得到高斯分布函数, 即

(3)

其中mσ2分别为均值和方差, 有

(4)
(5)

已知测量值, 系统状态的联合概率密度函数表示为

(6)

其中:Xkk时刻的状态变量; Yk为测量值; f(Xk/Xk-1)的均值和方差分别为Ak-1Xk-1Bk-1, f(Yk/Xk)的均值和方差分别为CkXkDk2, Ak为状态转移矩阵, Bk为输入矩阵, Ck为测量矩阵, Dk为测量噪声矩阵.

由和积算法可知当前时刻的状态为边缘函数, 有

(7)

以两传感器为例, 多源信息融合因子图如图 2所示.图 2

图 2 多源信息融合因子图
(8)

其中

(9)
(10)

同样有

(11)

其中

(12)
(13)
(14)

由高斯密度函数和乘法法则得到融合后的状态均值为

(15)

方差倒数为

(16)

因子图直观地表现了不同节点之间的关系.在需要添加状态量时, 因子图可以直接在原有图的基础上增添因子.同样地, 如果测量值可信度较低, 或信号丢失, 则只需要在原图的基础上简单地减少因子即可, 不需要特别地修改模型.该方法可以融合异步传感器信息, 具有良好的扩展性和灵活性, 节约计算资源.

3.2 因子图实现跟踪

因子图实现目标跟踪是利用和积算法并结合卡尔曼滤波理论完成的[17].卡尔曼滤波从一组物体位置的观察序列中(有限的, 包含噪声的)预测出物体的位置坐标和速度, 因子图的目标跟踪实现过程利用其和积算法原则中的消息传递原则, 在节点间传递均值和协方差信息.因子图的建立利用了卡尔曼滤波的时间和过程更新思想.后一个状态的估计受前状态和观测状态的影响, 将这种影响因子以一定的规则传递则可得到更新过的估计状态.

与传感器融合部分相同, 同样有系统状态模型.在实际驾驶情境中, 存在智能车跟踪目标数目未知且多变的问题, 为了解决该问题, 考虑以下方法:在公路上智能车附近最多存在8辆车, 实现目标跟踪时只考虑前3辆车进行跟踪.首先在初始帧中, 选择本车道的前车进行跟踪, 并对其标记, 同时获取前车的横向位置和纵向位置信息, 并分别与自车的横向位置和纵向位置作差值运算, 然后设置一个阈值, 并作出判断, 当差值超出阈值时放弃之前的目标车辆, 选择新的目标车辆进行跟踪, 即将此帧中与智能车相同车道的前车作为新的跟踪目标.状态的具体参数表示为

(17)

假设某一个简单的运动模型

(18)

如果忽略系统的噪声, 则由式(18)可以得到简单的系统状态模型为

(19)
(20)

其中的矩阵分别为系统状态模型中的状态转移矩阵和观测矩阵, 这两个矩阵对于在因子图中的具体实现有重要作用.

3.3 因子图实现态势认知

人类驾驶员驾驶过程中必须时刻关注周围环境及周围其他车辆的行为, 周围环境具体包括周围车辆和行人的位置、速度和轨迹, 车辆行为主要包括向左变道、向右变道和保持直行等.通常, 驾驶员首先根据当前和最近的物体的具体状态预测驾驶行为, 然后根据该行为预测驾驶轨迹.在智能驾驶领域, 人们经常用概率图进行这种预测, 如隐马尔科夫模型, 因为隐马尔科夫模型能够捕捉轨迹的时序变化.本文考虑建立一个因子图模型, 其与其他概率图模型一样可以解决变道预测的问题, 因为其因子形式可以将很多复杂的函数化简.因子图可以有效地替代其他概率图模型, 如隐马尔科夫模型和贝叶斯网络, 并利用和积算法高效地求解概率.所以在搭建上层因子图模型时, 考虑将已有的隐马尔可夫模型通过简单的转化变为因子图的形式, 再利用和积算法高效地求解边缘概率分布, 从而较为准确地预测驾驶行为.

在隐马尔科夫模型中将隐含状态用xi表示, 观测状态用yi表示, 隐含状态的联合概率密度函数为f(x1, x2, …, xn).根据条件概率的链式法则, 将该函数表示为

(21)

例如, 如果n = 4, 则有

(22)

模型将车辆行为识别分为上下两层, 下层包含纵向速度和横向位置两个模块, 上层包含车辆行为识别1个模块, 下层的输出作为上层的输入.总体因子图模型如图 3所示.图 3中, 上层模型有3种高层驾驶行为:向左变道、保持直行和向右变道.对于下层模型, 本文选择侧向位置的变化和纵向速度的变化两个模块.在每一个模块中建立两组因子节点表示HMM模型中的隐含状态和观测状态, 分别称为隐含因子和观测因子.在纵向速度模块中选择加速、匀速和减速3种状态作为因子图模型中的隐含因子, 对于观测因子考虑前后两次测量的速度差, 包括6个范围的速度相对差.侧向位置模块选择向左偏移、保持原位和向右偏移3种状态作为隐含因子, 观测因子考虑用1个横向位置变化量度量.经过纵向速度和侧向位置两个模块的计算处理可以得到上层因子图车辆行为识别模型的9个观测因子.

图 3 用于态势认知的因子图模型
4 实验与分析 4.1 跟踪结果

利用PreScan模拟跟踪场景.前车为被跟踪目标车辆, 后车为监测车辆, 后车安装有GPS、目标跟踪摄像头、毫米波测距雷达, 在进行数据融合后输出前车的实时距离信息, 达到跟踪前车运动状态的目的.目标车辆沿着公路行驶, 设置采样周期T为0.05s, 机动时间常数的倒数为0.5.

为检验跟踪效果, 采用均方根误差(RMSE)指标进行判断, 定义为

(23)

其中:N为仿真次数, i为第i次仿真, x(k/k)、为第i次仿真时k时刻目标状态的真值和估计值.

从均方根误差和运行时间两方面对因子图方法、卡尔曼滤波、扩展卡尔曼滤波和相关滤波进行比较.结果显示, 应用因子图实现目标跟踪的误差小于应用卡尔曼滤波和扩展卡尔曼滤波的误差结果, 但是略大于应用于相关滤波实现跟踪的误差结果, 原因可能是在后半段时间内, 跟踪的目标有被遮挡.但总体而言, 利用因子图实现目标跟踪的结果可靠性较好, 且运行时间均较快.

为了验证因子图实现跟踪的可靠性, 除Prescan仿真实验外, 同时基于实际道路实测数据实验.DBNet[18]开源数据集记录了公共道路行驶车辆车载摄像头和激光雷达的实测视频和点云数据, 为环境感知、态势认知和驾驶行为研究提供了丰富的对标数据.基于图像和点云进行目标识别, 提取目标车辆的位置信息, 然后基于因子图方法进行有效跟踪.

4.2 融合结果

融合实验用到了激光雷达和摄像机的感知数据进行融合, 在同帧的图片和点云数据中提取相同目标的xy坐标信息, 实验结果的评价同样采用均方根误差.图 4xy方向的位置均方根误差曲线.

图 4 融合均方根误差曲线

图 4可见, 利用因子图实现传感器信息融合得到的均方根误差最小, 表明了因子图融合模型的有效性.

4.3 态势认知结果

NGSIM(next generation simulation)是由美国联邦交通部主导收集和处理的大量交通数据, 本文利用NGSIM数据集进行变道行为预测.利用混淆矩阵表现预测的准确度, 并将混淆矩阵扩展到3个分类标签的情形.用于测试的样本数有共12814个, 真实情况和预测结果如表 1所示, 同时利用预测准确率指标判断预测结果的优劣.

表 1 因子图混淆矩阵

表 1中, 保持不变的预测正确率最高, 分析得出, 人们在正常驾驶时对于变道要考虑的因素比较多, 由于认知方面的原因一般人们会倾向于在本车道直行, 这样能减少变道带来的风险, 另一方面也与驾驶员的驾驶习惯有关.综上, 本模型可以实现对变道态势的预测.同样利用HMM模型对相同数据进行分类, 得到的准确率约为85%, 可见因子图的实现效果更好.

5 结论

智能车认知水平与人类的认知水平尚存在较大差距, 不具备可靠处理复杂交通状况的能力, 如何提升智能车的环境认知能力是亟待解决的关键问题.鉴于此, 本文提出了层次化的智能车环境感知和态势认知模型.因子图利用和积算法直接求解边缘概率的方式使得计算效率显著提升, 且因子图对于数据的处理方式统一, 操作更加简单.基于因子图尤其是层次因子图的优势, 利用多源信息融合和人类驾驶员认知机理, 按照被处理信息由低到高的抽象层次, 将环境认知分为环境目标感知和态势认知两个层次, 提出了层次化框架, 确定了层次因子图的拓扑结构并实现了层次因子图模型, 目标感知层具体为多源信息融合和目标跟踪, 态势认知层具体为车辆变道等态势预测.通过PreScan仿真环境数据、NGSIM真实驾驶数据集和DBNet自动驾驶实测数据集实验, 并与现有的方法比较, 验证了所提出方法的有效性, 以及在跟踪、融合、态势预测正确率和准确率方面的优势.在目标跟踪方面, 基于因子图方法只实现了单目标跟踪, 基于因子图的多目标跟踪方法还有待进一步研究.

参考文献
[1]
何友, 王国宏, 彭应宁, 等. 多传感器信息融合及应用[J]. 舰船电子工程, 2000(6): 60-61.
(He Y, Wang G H, Peng Y N, et al. Multisensor information fusion with applications[J]. Ship Electronic Engineering, 2000(6): 60-61.)
[2]
Chavez Garcia R O, Aycard O. Multiple sensor fusion and classification for moving object detection and tracking[J]. IEEE Transactions on Intelligent Transportation Systems, 2016, 17(2): 525-534. DOI:10.1109/TITS.2015.2479925
[3]
Kim S, Kim H, Yoo W, et al. Sensor fusion algorithm design in detecting vehicles using laser scanner and stereo vision[J]. IEEE Transactions on Intelligent Transportation Systems, 2016, 17(4): 1072-1085. DOI:10.1109/TITS.2015.2493160
[4]
Ristic B, Angley D, Selvaratnam D, et al. A random finite set approach to occupancy-grid SLAM[C]. International Conference on Information Fusion. Piscataway: IEEE, 2016: 1-7.
[5]
李德毅.智能车辆利用变粒度路权雷达图进行信息融合的方法[P].CN201310128508.5.2013-08-21.
(Li D Y. A method of infromation fusion for intelligent vehicles using variable granularity right-of-way radar map[P]. CN201310128508.5.2013-08-21.)
[6]
周俊静, 段建民. 基于栅格地图的智能车辆运动目标检测[J]. 系统工程与电子技术, 2015, 37(2): 436-442.
(Zhou J J, Duan J M. Moving object detection for intelligent vehicles based on occupancy grid map[J]. Systems Engineering and Electronics, 2015, 37(2): 436-442.)
[7]
Mandalia Hiren M, Salvucci Mandalia Dario D. Using support vector machines for lane-change detection[J]. Proceedings of the Human Factors and Ergonomics Society Annual Meeting, 2005, 49(22): 1965-1969. DOI:10.1177/154193120504902217
[8]
Tran D, Sheng W, Liu L, et al. A hidden markov model based driver intention prediction system[C]. International Conference on Cyber Technology in Automation, Control and Intelligent Systems. Piscataway: IEEE, 2015: 115-120.
[9]
Chaer W, Bishop R, Ghosh J. A mixture-of-experts framework for adaptive kalman ltering[J]. IEEE Transactions on Systems, Man, and Cybernetics, Part B: Cybernetics, 1997, 27(3): 452-464. DOI:10.1109/3477.584952
[10]
Dagli I, Brost M, Breuel G. Action recognition and prediction for driver assistance systems using dynamic belief networks[J]. Lecture Notes in Computer Science, 2003, 179-194.
[11]
Ulbrich S, Maurer M. Situation assessment in tactical lane change behavior planning for automated vehicles[C]. International Conference on Intelligent Transportation Systems. Piscataway: IEEE, 2015: 975-981.
[12]
Schubert R, Wanielik G. A unified bayesian approach for object and situation assessment[J]. IEEE Intelligent Transportation Systems Magazine, 2011, 3(2): 6-19. DOI:10.1109/MITS.2011.941331
[13]
张宏毅, 王立威, 陈瑜希. 概率图模型研究进展综述[J]. 软件学报, 2013, 24(11): 2476-2497.
(Zhang H Y, Wang L W, Chen Y X. Research progress of probabilistic graphical models: A survey[J]. Journal of Software, 2013, 24(11): 2476-2497.)
[14]
Kschischang F R, Frey B J, Loeliger H. Factor graphs and the sum-product algorithm[J]. IEEE Transactions on Information Theory, 2001, 47(2): 498-519. DOI:10.1109/18.910572
[15]
Loeliger H. An introduction to factor graphs[J]. Signal Processing Magazine, 2004, 21(1): 28-41. DOI:10.1109/MSP.2004.1267047
[16]
毛玲, 陈平, 张国敏. 层次因子图及其在故障诊断中的应用[J]. 海军工程大学学报, 2014, 26(2): 80-84.
(Mao L, Chen P, Zhang G M. Hierarchical factor graph and its application in fault diagnosis[J]. Journal of Naval University of Engineering, 2014, 26(2): 80-84.)
[17]
王旭, 程婷, 吴小平, 等. 一种基于预测值量测转换的卡尔曼滤波跟踪算法[J]. 电讯技术, 2018, 58(10): 1158-1162.
(Wang X, Cheng T, Wu X P, et al. A Kalman filter algorithm for target tracking based on predicted position based unbiased converted measurements[J]. Telecommunication Engineering, 2018, 58(10): 1158-1162.)
[18]
Chen Y P, Wang J K, Li J, et al. LiDAR-video driving dataset: Learning driving policies effectively[C]. IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE, 2018: 5870-5878.