一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于视觉/毫米波雷达信息融合的无人机多目标跟踪方法

2023-03-08 18:59:27 来源:中国专利 TAG:


1.本发明属于无人机环境感知领域,特别涉及基于视觉/毫米波雷达信息融合的无人机多目标跟踪方法。


背景技术:

2.无人机作为一种飞行机器人,因其具有灵活机动、携带便捷和可在多种不同复杂环境中工作等优点,目前已在工业、农业、商业和民用消费市场等诸多领域中得到广泛应用,具有广阔的发展前景。在无人机应用中,对环境中感兴趣的多目标进行在线跟踪是无人机监测、跟随和目标导引等功能实现的重要基础,在近些年受到越来越多研究者的关注。
3.为了实现在线多目标跟踪,常用的感知传感器有单目相机、深度相机、激光雷达和毫米波雷达等。单目相机具有价格低廉、易于安装和采集图像语义信息丰富等优点,常用的实时单目相机多目标跟踪算法有deepsort、bytetrack和oc_sort等。但由于无人机在飞行过程中存在相机抖动,容易导致目标跟踪丢失,且单目测距精度有限,因此仅使用单目相机实现无人机多目标跟踪效果不佳。深度相机的测距范围相对较小,且易受光照等环境因素干扰,因此在单独使用时,局限性较大。激光雷达可以同时提供丰富的语义信息和准确的目标距离信息,但高性能激光雷达通常价格昂贵、体积庞大、功耗较高,难以在无人机平台上广泛部署。毫米波雷达具有尺寸小、功耗低、受环境因素影响小和能准确测量多目标距离等优点,但毫米波雷达具有数据缺乏语义信息,角度测量精度低等缺点,难以单独完成准确的多目标跟踪任务。
4.目前已经申请方案如下:
5.申请号:cn201811444277.8,申请名称:一种面向智能车的毫米波雷达与单目相机信息融合方法,其请求保护一种面向智能车的毫米波雷达与单目相机信息融合方法,主要包括三个阶段:第一阶段,首先在智能车上安装并调整相机与毫米波雷达位置,然后用张正友标定法获取相机内部参数,最后将相机成像平面投影到俯视图,以满足两个传感器识别的目标信息在同一车辆坐标系下;第二阶段,在线下用深度学习方法训练基于图像的多目标识别模型,线上在智能车行驶的过程中雷达与相机实时采集数据,把识别的目标信息转化到统一的车辆坐标系下并排除无效目标;第三阶段,用全局最近邻匹配算法判断目标是否一致,通过扩展卡尔曼滤波跟踪匹配目标和未匹配目标,实现多目标识别。本发明目标识别率高,安全性可靠,可有效提高智能汽车对环境感知的实用性。
6.其是首先将相机成像平面投影到俯视图,以满足两个传感器识别的目标信息在同一车辆坐标系下,然后使用深度学习方法进行多目标识别,并将获取的雷达和相机目标信息转化到统一的车辆坐标系下并排除无效目标,最后用全局最近邻匹配算法判断目标一致性,通过扩展卡尔曼滤波跟踪匹配目标和未匹配目标,实现多目标识别。
7.而本技术的方法在进行数据处理时,相较于所对比专利,针对毫米波雷达数据进行了额外的聚类和质心计算处理,提高了雷达数据的质量,并在处理相机数据时,在得到目标的检测框后,进一步提出了一种单目深度估计方法,实现了视觉的距离信息补全,获得了
更丰富的视觉检测结果。同时,在对目标状态进行估计,生成目标轨迹后,所对比专利是简单根据当前检测是否与轨迹匹配,从而判断目标有效性,目的是实现目标识别,而本专利又进一步设计了一个基于全局最近邻匹配算法和卡尔曼滤波的串级多目标跟踪器,目的是实现长时间和检测丢失情形下的准确多目标跟踪。因此,这两项专利无论在具体数据处理方法和最终实现目的方面均是不相同的。
8.申请号:cn202210562730.5,申请名称:基于多信息融合的车辆追踪方法、装置及系统,本技术涉及智能汽车技术领域,具体公开了一种基于多信息融合的车辆追踪方法,其中,包括:分别获取目标车辆的初始点云数据和视觉图像信息,其中初始点云数据为标定后的毫米波雷达采集到的目标车辆的点云数据,视觉图像信息为标定后的视觉采集装置采集到的目标车辆的图像信息;对初始点云数据进行聚类处理后得到雷达检测框,以及对视觉图像信息进行目标检测处理后得到视觉检测框;将雷达检测框与视觉检测框进行融合,并根据融合结果确定主融合目标;对主融合目标进行优化处理,得到目标车辆的追踪结果。本发明还公开了一种基于多信息融合的车辆追踪装置及系统。本发明提供的基于多信息融合的车辆追踪方法能够提高车辆追踪效果。
9.本技术在获取目标车辆的初始点云数据和视觉图像信息后,对初始点云数据进行dbscan聚类处理得到雷达检测框,对视觉图像信息进行目标检测处理得到视觉检测框,然后将雷达检测框与视觉检测框进行融合,并根据融合结果确定主融合目标,最后对主融合目标进行优化处理,得到目标车辆的追踪结果。
10.而本技术在对毫米波雷达数据进行处理时,使用的聚类方法为欧式聚类,在完成聚类后,通过质心计算方法以每类物体的质心信息代替该类物体的信息,实现了数据降维;在对视觉数据进行处理时,在生成目标检测框后,提出了一种单目深度估计方法,实现了视觉的距离信息补全,进一步丰富了视觉检测结果;在进行两传感器空间对准和数据匹配时,利用视觉深度估计结果,实现了视觉数据和雷达数据在载体坐标系下的对准匹配,该方法相对于所对比专利中将雷达数据直接投影到图像坐标系进行匹配,进一步考虑了雷达数据向图像投影时通常存在较大偏差和图像本身深度尺度丢失的问题,能够获得更加准确和鲁棒的数据匹配结果;在进行卡尔曼更新时,使用的全局最近邻匹配算法相较于对比专利中的最近邻匹配算法,综合考虑了数据匹配时的全局代价,因此能有效降低误匹配概率;在设计目标跟踪器时,设计了一种基于全局最近邻匹配算法和卡尔曼滤波器的串级多目标跟踪器,相较于所对比专利中仅根据一次检测与轨迹匹配结果即输出跟踪结果,提出的跟踪器拥有更加完备的跟踪策略,能够更好地处理长时间和检测丢失情况下的目标跟踪问题,能够取得更佳的多目标跟踪效果。两项专利在传感器数据处理、数据融合匹配和目标跟踪器设计上均存在较大不同,且本专利提出的方法相较于所对比专利考虑的更加全面,能够取得更好的多目标跟踪效果。
11.为了弥补单一传感器的缺陷,多源传感器融合感知是目前研究的热点。结合无人机平台自身特点和各传感器特性,毫米波雷达和视觉融合是较为理想的无人机在线多目标跟踪问题的解决方案。在现有的基于毫米波雷达和视觉融合的多目标跟踪算法中,一般在像素坐标系中进行传感器数据匹配,但毫米波雷达相较视觉测角精度较低,对应的雷达像素投影点与视觉测量通常存在偏差,且像素坐标系本身深度维信息丢失,因此该匹配策略的整体准确度有限。此外,现有方法在完成数据匹配融合和目标状态估计后,仅使用简单轨
迹管理策略实现多目标跟踪。因此现有的融合多目标跟踪算法通常具有生成轨迹不连续、检测丢失条件下跟踪精度低等缺点。


技术实现要素:

12.为了解决以上问题,提出基于视觉/毫米波雷达信息融合的无人机多目标跟踪方法,该方法在对雷达数据和单目视觉数据分别进行处理后,利用单目视觉的深度估计信息,在载体坐标系中进行数据匹配,提高了匹配的准确性,并在完成传感器数据匹配融合和目标状态估计后,进一步设计了一个完备的多目标跟踪器,提高了无人机在线多目标跟踪的精度,解决了单一传感器和现有融合跟踪方法跟踪效果不佳的问题。
13.为实现上述目的,本发明采取的技术方案是:
14.基于视觉/毫米波雷达信息融合的无人机多目标跟踪方法,具体步骤如下,其特征在于:
15.(1)读取毫米波雷达当前时刻的点云信息,其中第i个点云信息记为pi=[x,y,z,v
x
,vy,vz],式中x,y,z表示目标在空间各坐标轴方向的位置分量,v
x
,vy,vz表示目标在空间各坐标轴方向的速度分量,在获取雷达点云信息后,先使用欧式聚类算法滤除离群噪点,再使用每类点云的质心代表该类点云所对应的物体,实现雷达数据量的有效降低,质心计算的表达式为:
[0016][0017]
(2)读取单目视觉采集的rgb图像,使用训练好的yolov5n目标检测模型实现感兴趣目标的在线检测与提取,通过目标检测算法得到感兴趣目标的检测框信息为:
[0018]
bbox=[u,v,wb,hb]
[0019]
式中,u,v为检测框中心点的像素坐标,wb,hb为检测框的宽和高;
[0020]
结合感兴趣目标的宽度或高度尺寸信息,利用图像检测框信息和相机投影模型,提出单目深度估计的计算表达式如下:
[0021][0022]
式中,d为目标估计深度,f为相机焦距,w,h为目标实际尺寸,u,v为目标在像素坐标系中的尺寸;
[0023]
(3)对毫米波雷达和单目视觉进行联合标定,实现异源传感器数据的时空对准;
[0024]
(4)对完成时空同步的毫米波雷达和视觉检测数据进行一一匹配,筛选出感兴趣目标的多源传感器信息,采用全局最近邻匹配gnn算法实现数据匹配,两传感器数据之间的距离计算准则选取马氏距离,计算表达式为:
[0025][0026]
式中,e
ij
表示两传感器测量的残差向量,s为对应的协方差。为了衡量数据匹配的风险代价,设置一门限值g来表示两传感器数据之间的最大匹配距离,门限值约束下的数据匹配的风险代价计算公式为:
[0027][0028]
其中,c
ij
为某一数据对匹配的风险代价,d
max
为一远大于d
ij
和g的常数,当把雷达的各个量测元素分配给视觉的各个量测元素的总风险最小时,得到的分配结果为所需的全局最近邻数据匹配结果,实现该过程的优化目标为:
[0029][0030][0031]
(5)针对匹配成功的雷达数据和视觉数据,将两传感器数据进行融合,选取视觉检测框中心点,使用与之匹配的雷达深度信息对其在载体坐标系中的投影进行修正,计算公式为:
[0032][0033]
使用雷达测量值的速度信息,对修正视觉测量值投影进行补充,得到每个目标中心点的传感器融合测量值为zk=[xb,yb,v
xb
,v
yb
],对于融合测量值,设计了一个卡尔曼滤波器来提高检测鲁棒性,滤波器的预测部分为:
[0034][0035]
式中,状态转移矩阵f
k,k-1
取值为表示匀速运动模型;系统协方差矩阵的初始值p0取单位阵,系统过程噪声矩阵qk表示匀速运动模型的扰动量。滤波器的数据更新部分为:
[0036][0037]
式中,zk是当前测量值,hk是观测矩阵,在此处取值为单位阵,rk是观测噪声协方差矩阵。
[0038]
(6)设计一个基于全局最近邻匹配gnn算法和前述卡尔曼滤波器的串级在线多目标跟踪器,输出准确的在线多目标跟踪结果。
[0039]
作为本发明进一步改进,步骤(2)中需使用tensorrt对yolov5n模型进行推理加速,以提高目标检测算法在机载嵌入式平台上的运行效率,满足在线实时检测的需求。
[0040]
作为本发明进一步改进,步骤(3)中所提出的具体传感器时空对准方法为:
[0041]
(3-1)在进行时间对准时,提出采用最近邻时间匹配算法,该算法的原理为:计算雷达数据时间戳和相邻视觉检测数据时间戳的差值,将差值最小且小于设定阈值的数据对进行匹配,认为其对应于同一时刻,实现时间对准;
[0042]
(3-2)完成时间对准后,提出将两传感器数据都转换到载体系,实现数据的空间对准。在所设计的系统中,雷达坐标系、相机坐标系和载体坐标系中点的坐标分别为(xr,yr,zr)、(xc,yc,zc)和(xb,yb,zb),像素坐标系中点的坐标为(u,v),根据相机投影模型,将像素坐标系中的点转换到相机坐标系的公式为:
[0043][0044]
式中,zc是通过单目深度估计算法求得的目标距离,f
x
、fy、c
x
和cy是相机内参,通过棋盘格标定方法获取,根据相机在无人机上的安装位置,得到相机坐标系和载体坐标系之间的转换关系为:
[0045][0046]
毫米波雷达坐标系和相机坐标系之间的转换关系通过直接线性变换法(dlt)求解,结合相机投影模型,存在关系式:
[0047][0048]
式中,(u,v,1)
t
为雷达点云在像素坐标系中的投影,其通过人为观察方法确定,将该式进一步展开为
[0049][0050]
式中,定义p=(xr,yr,zr,1),a1=(a1,a2,a3,a4)
t
,a2=(a5,a6,a7,a8)
t
,a3=(a9,a
10
,a
11
,a
12
)
t
,消去zc后得如下约束:
[0051][0052]
由该式可得,每对点构建两个方程,当共有n对点时,构建如下矩阵方程:
[0053][0054]
当n≥6时,采用svd分解求解该方程的最小二乘解,对a进行svd分解得:
[0055]
(u
1 σ
1 v1)=svd(a)
[0056]
进一步考虑尺度因素,得矩阵方程实际解为:
[0057][0058]
其中,β为比例系数,求得旋转矩阵为
[0059][0060]
为计算带有尺度并具有正交性质的最优旋转矩阵,对进行svd分解得:
[0061][0062]
求得的最优旋转矩阵为:
[0063]rcr

±u2v2t
[0064]
求解得到比例系数为:
[0065]
β=
±
1/(tr(σ2)/3)
[0066]
由于探测点应在雷达和相机的前方,所以有:
[0067][0068]
由该式确定β和r
cr
的正负,进一步求得平移向量为
[0069][0070]
在计算出旋转矩阵r
cr
和平移向量t
cr
后,得到雷达坐标系和相机坐标系之间的转换关系为:
[0071][0072]
再由前述相机坐标系和载体坐标系之间的转换关系,进一步将雷达坐标系中的点转换到载体坐标系中。由此可将视觉检测数据和毫米波雷达数据都转换到统一的载体坐标系中,实现两传感器的数据空间对准。
[0073]
作为本发明进一步改进,步骤(4)中,求解全局最近邻数据匹配结果时,采用匈牙利算法,从而提高求解效率。
[0074]
作为本发明进一步改进,步骤(6)中设计的基于全局最近邻匹配gnn算法和前述卡尔曼滤波器的串级在线多目标跟踪器的原理为:根据轨迹的可信度,将轨迹状态分为确认态和非确认态,跟踪算法的流程如下:
[0075]
(1)使用gnn算法,将融合测量数据和确认态轨迹预测值进行匹配,得到未匹配轨迹、未匹配测量和匹配轨迹三组数据,对于匹配的轨迹,根据与之关联的当前测量值,更新轨迹状态;对于未匹配的轨迹,如果其已连续设定阈值个周期均匹配失败,删除该条轨迹,否则暂时保留该轨迹,但不进行轨迹更新;对于未匹配的测量将作为下一级数据匹配的输入;
[0076]
(2)再次使用gnn算法,将上一级未匹配测量和非确认态轨迹预测值进行匹配,得到新的未匹配轨迹、未匹配测量和匹配轨迹,对于匹配的轨迹,使用关联的测量更新轨迹状态。此时,如果匹配轨迹在连续设定阈值个周期均匹配成功,其状态将转换为确认态;对于未匹配的轨迹,删除该轨迹;对于未匹配的测量,生成新的非确认态轨迹;
[0077]
(3)输出由步骤(1)、(2)生成的确认态轨迹,这些轨迹为在线多目标跟踪的结果。
[0078]
与现有技术相比,本发明的有益效果为:
[0079]
(1)本发明利用欧式聚类和质心计算对毫米波雷达数据进行处理,利用深度学习目标检测和单目深度估计方法对视觉数据进行处理,实现了待跟踪目标有效信息的提取,降低了传感器数据量,提高了算法的运行效率。
[0080]
(2)本发明通过结合单目视觉估计的深度、相机投影模型和标定的传感器之间的坐标转换关系,提出将视觉检测数据和雷达检测数据转换到载体坐标系中进行数据匹配,弥补了现有其他方法在像素坐标系中进行数据匹配时,容易出现匹配失败现象的缺陷,提高了数据匹配的准确度。
[0081]
(3)本发明在完成传感器数据匹配融合和目标状态估计后,进一步设计了一个基于全局最近邻匹配算法和卡尔曼滤波器的完备的多目标跟踪器,提高了无人机在线多目标跟踪的精度,解决了单一传感器和现有融合跟踪方法跟踪效果不佳的问题。
附图说明
[0082]
图1是本发明公开方法的流程图;
[0083]
图2是本发明公开的方法中在线多目标跟踪器的结构图。
具体实施方式
[0084]
为使本发明的目的、技术方案及优点更加清楚明白,以下根据附图并列举实施例,对本发明做进一步详细说明。
[0085]
本发明公开了流程图如图1所示所示的基于视觉/毫米波雷达信息融合的无人机多目标跟踪方法,包括如下步骤:
[0086]
步骤1、读取毫米波雷达当前时刻的点云信息,其中第i个点云信息记为pi=[x,y,z,v
x
,vy,vz],式中x,y,z表示目标在空间各坐标轴方向的位置分量,v
x
,vy,vz表示目标在空间各坐标轴方向的速度分量。在获取雷达点云信息后,先使用欧式聚类算法滤除离群噪点,再使用每类点云的质心代表该类点云所对应的物体,实现雷达数据量的有效降低,质心计算的表达式为:
[0087][0088]
步骤2、读取单目视觉采集的rgb图像,使用训练好的yolov5n目标检测算法实现感兴趣目标的检测与提取。为了提高目标检测算法在嵌入式平台上的运行效率,满足在线实时检测的需求,提出需要使用tensorrt对yolov5n模型进行推理加速。通过目标检测算法得到感兴趣目标的检测框信息,表达式为:
[0089]
bbox=[u,v,wb,hb]
[0090]
式中,u,v为检测框中心点的像素坐标,wb,hb为检测框的宽和高。
[0091]
结合感兴趣目标的宽度或高度等尺寸信息,利用图像检测框信息和相机投影模型,提出单目深度估计的计算表达式如下:
[0092][0093]
式中,d为目标估计深度,f为相机焦距,w,h为目标实际尺寸,u,v为目标在像素坐标系中的尺寸。
[0094]
步骤3、对毫米波雷达和单目视觉进行联合标定,实现异源传感器数据的时空对准,具体步骤包括:
[0095]
(3-1)在进行时间对准时,提出采用最近邻时间匹配算法,该算法的原理为:计算雷达数据时间戳和相邻视觉检测数据时间戳的差值,将差值最小且小于设定阈值的数据对进行匹配,认为其对应于同一时刻,实现时间对准。
[0096]
(3-2)完成时间对准后,本发明提出将两传感器数据都转换到载体系,实现数据的空间对准。在所设计的系统中,雷达坐标系、相机坐标系和载体坐标系中点的坐标分别为(xr,yr,zr)、(xc,yc,zc)和(xb,yb,zb),像素坐标系中点的坐标为(u,v)。根据相机投影模型,将像素坐标系中的点转换到相机坐标系的公式为:
[0097][0098]
式中,zc是通过单目深度估计算法求得的目标距离,f
x
、fy、c
x
和cy是相机内参,可以通过棋盘格标定方法获取。根据相机在载体上的安装位置,得到相机坐标系和载体坐标系之间的转换关系为:
[0099][0100]
毫米波雷达坐标系和相机坐标系之间的转换关系通过直接线性变换法(dlt)求解,结合相机投影模型,存在关系式:
[0101]
[0102]
式中,(u,v,1)
t
为雷达点云在像素坐标系中的投影,其可通过人为观察方法确定。将该式进一步展开为
[0103][0104]
式中,定义p=(xr,yr,zr,1),a1=(a1,a2,a3,a4)
t
,a2=(a5,a6,a7,a8)
t
,a3=(a9,a
10
,a
11
,a
12
)
t
,消去zc后可得如下约束:
[0105][0106]
由该式可得,每对点可构建两个方程,当共有n对点时,可构建如下矩阵方程:
[0107][0108]
当n≥6时,采用svd分解求解该方程的最小二乘解,对a进行svd分解可得:
[0109]
(u
1 σ
1 v1)=svd(a)
[0110]
进一步考虑尺度因素,可得矩阵方程实际解为:
[0111][0112]
其中,β为比例系数,求得旋转矩阵为
[0113][0114]
为计算带有尺度并具有正交性质的最优旋转矩阵,对进行svd分解可得:
[0115][0116]
求得的最优旋转矩阵为:
[0117]rcr

±u2v2t
[0118]
求解得到比例系数为:
[0119]
β=
±
1/(tr(σ2)/3)
[0120]
由于探测点应在雷达和相机的前方,所以有:
[0121][0122]
由该式可以确定β和r
cr
的正负,进一步求得平移向量为
[0123][0124]
在计算出旋转矩阵r
cr
和平移向量t
cr
后,可以得到雷达坐标系和相机坐标系之间的转换关系为:
[0125][0126]
再由前述相机坐标系和载体坐标系之间的转换关系,可以进一步将雷达坐标系中的点转换到载体坐标系中。由此可将视觉检测数据和毫米波雷达数据都转换到统一的载体坐标系中,实现两传感器的数据空间对准。
[0127]
步骤4、对完成时空同步的毫米波雷达和视觉检测数据进行一一匹配,筛选出感兴趣目标的多源传感器信息。本发明采用全局最近邻匹配(gnn)算法实现数据匹配,两传感器数据之间的距离计算准则选取马氏距离,计算表达式为:
[0128][0129]
式中,e
ij
表示两传感器测量的残差向量,s为对应的协方差。为了衡量数据匹配的风险代价,设置一门限值g来表示两传感器数据之间的最大匹配距离。门限值约束下的数据匹配的风险代价计算公式为:
[0130][0131]
其中,c
ij
为某一数据对匹配的风险代价,d
max
为一远大于d
ij
和g的常数。当把雷达的各个量测元素分配给视觉的各个量测元素的总风险最小时,得到的分配结果为所需的全局最近邻数据匹配结果,实现该过程的优化目标为:
[0132][0133][0134]
该分配问题在本发明中通过匈牙利算法实现快速求解。
[0135]
步骤5、针对匹配成功的雷达数据和视觉数据,将两传感器数据进行融合。选取视觉检测框中心点,使用与之匹配的雷达深度信息对其在载体坐标系中的投影进行修正,计算公式为:
[0136][0137]
使用雷达测量值的速度信息,对修正视觉测量值投影进行补充,得到每个目标中心点的传感器融合测量值为zk=[xb,yb,v
xb
,v
yb
]。对于融合测量值,本发明设计了一个卡尔曼滤波器来提高检测鲁棒性,滤波器的预测部分为:
[0138][0139]
式中,状态转移矩阵f
k,k-1
取值为表示匀速运动模型;系统协方差矩阵的初始值p0取单位阵,系统过程噪声矩阵qk表示匀速运动模型的扰动量。滤波器的数据更新部分为:
[0140][0141]
式中,zk是当前测量值,hk是观测矩阵,在此处取值为单位阵,rk是观测噪声协方差矩阵。
[0142]
步骤6、设计了一个基于全局最近邻匹配(gnn)算法和前述卡尔曼滤波器的串级在线多目标跟踪器,跟踪器的框架如图2所示。
[0143]
在该多目标跟踪算法中,根据轨迹的可信度,将轨迹状态分为确认态和非确认态,跟踪算法的流程如下:
[0144]
(1)使用gnn算法,将融合测量数据和确认态轨迹预测值进行匹配,得到未匹配轨迹、未匹配测量和匹配轨迹三组数据。对于匹配的轨迹,根据与之关联的当前测量值,更新轨迹状态;对于未匹配的轨迹,如果其已连续设定阈值个周期均匹配失败,删除该条轨迹,否则暂时保留该轨迹,但不进行轨迹更新;对于未匹配的测量将作为下一级数据匹配的输入。
[0145]
(2)再次使用gnn算法,将上一级未匹配测量和非确认态轨迹预测值进行匹配,得到新的未匹配轨迹、未匹配测量和匹配轨迹。对于匹配的轨迹,使用关联的测量更新轨迹状态。此时,如果匹配轨迹在连续设定阈值个周期均匹配成功,其状态将转换为确认态;对于未匹配的轨迹,删除该轨迹;对于未匹配的测量,生成新的非确认态轨迹。
[0146]
(3)输出由步骤(1)、(2)生成的确认态轨迹,这些轨迹为在线多目标跟踪的结果。
[0147]
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作任何其他形式的限制,而依据本发明的技术实质所作的任何修改或等同变化,仍属于本发明所要求保护的范围。
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献