一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

自动驾驶车辆定位方法、装置及电子设备、存储介质与流程

2022-07-13 17:07:47 来源:中国专利 TAG:


1.本技术涉及自动驾驶技术领域,尤其涉及一种自动驾驶车辆定位方法、装置及电子设备、存储介质。


背景技术:

2.自动驾驶场景下,需要实现自动驾驶车辆的高精度定位,目前通常采用多传感器融合定位的方式,即通过卡尔曼滤波器融合多个传感器采集的定位信息,从而实现车辆的高精度定位。例如,现有技术中的一种融合定位方案是基于imu(inertial measurement unit,惯性测量单元)和rtk(real-time kinematic,实时差分定位)实现的融合定位方案。但此种方案在自动驾驶车辆遇到城市、峡谷或者隧道等工况时,rtk会受到干扰或者无信号导致无法工作,尤其是在长隧道工况,无法得到高精度的定位信息,且自动驾驶车辆由于上述原因将无法进行车道保持。
3.基于此,现有技术中提出了一种基于自动驾驶车辆的图像处理子系统输出的视觉横向校正信息来对上述融合定位结果进行校正的方案,能够提高上述rtk等定位信号较差时的融合定位精度,并进行车道保持。
4.然而,视觉横向校正信息依赖于深度学习模型的识别效果,在车辆转弯、变道或者光线不好情况下无法稳定输出视觉横向校正信息,且会出现误识别情况,导致输出的视觉横向校正信息并不准,进而影响了融合定位精度和稳定性。


技术实现要素:

5.本技术实施例提供了一种自动驾驶车辆定位方法、装置及电子设备、存储介质,以提高自动驾驶车辆在转弯等场景下的定位精度和定位稳定性。
6.本技术实施例采用下述技术方案:
7.第一方面,本技术实施例提供一种自动驾驶车辆定位方法,其中,所述方法包括:
8.获取自动驾驶车辆的前一时刻的视觉横向校正信息和航向角;
9.根据所述前一时刻的视觉横向校正信息和航向角,确定所述自动驾驶车辆的转弯状态;
10.根据所述前一时刻的视觉横向校正信息和航向角,以及所述自动驾驶车辆的转弯状态,确定转弯状态下的视觉横向校正信息;
11.利用所述转弯状态下的视觉横向校正信息对当前时刻的融合定位信息进行校正,得到校正后的融合定位信息;
12.将所述校正后的融合定位信息作为量测信息进行融合定位,得到所述自动驾驶车辆的最终融合定位结果。
13.可选地,所述前一时刻的视觉横向校正信息包括导航坐标系下的位置偏移量,所述位置偏移量包括x轴位置偏移量和y轴位置偏移量,所述根据所述前一时刻的视觉横向校正信息和航向角,确定所述自动驾驶车辆的转弯状态包括:
14.将所述x轴位置偏移量的绝对值与所述y轴位置偏移量的绝对值进行比较;
15.若所述x轴位置偏移量的绝对值大于所述y轴位置偏移量的绝对值,则根据所述x轴位置偏移量和所述航向角,确定所述自动驾驶车辆的转弯状态;
16.若所述x轴位置偏移量的绝对值不大于所述y轴位置偏移量的绝对值,则根据所述y轴位置偏移量和所述航向角,确定所述自动驾驶车辆的转弯状态。
17.可选地,所述前一时刻的视觉横向校正信息包括导航坐标系下的位置偏移量,所述根据所述前一时刻的视觉横向校正信息和航向角,以及所述自动驾驶车辆的转弯状态,确定转弯状态下的视觉横向校正信息包括:
18.根据所述导航坐标系下的位置偏移量,确定视觉横向校正绝对值;
19.根据所述视觉横向校正绝对值、所述航向角以及所述自动驾驶车辆的转弯状态,确定所述转弯状态下的视觉横向校正信息。
20.可选地,在确定视觉横向校正绝对值之后,所述方法还包括:
21.将所述视觉横向校正绝对值与预设绝对值阈值进行比较;
22.若所述视觉横向校正绝对值不大于所述预设绝对值阈值,则根据所述视觉横向校正绝对值、所述航向角以及所述自动驾驶车辆的转弯状态,确定所述转弯状态下的视觉横向校正信息;
23.若所述视觉横向校正绝对值大于所述预设绝对值阈值,则舍弃所述视觉横向校正绝对值。
24.可选地,所述利用所述转弯状态下的视觉横向校正信息对当前时刻的融合定位信息进行校正包括:
25.确定当前累计时间,所述当前累计时间从得到所述转弯状态下的视觉横向校正信息时开始计算;
26.若所述当前累计时间小于第一累计时间阈值,则直接利用所述转弯状态下的视觉横向校正信息对当前时刻的融合定位信息进行校正;
27.若所述当前累计时间不小于第一累计时间阈值但小于第二累计时间阈值,则对所述转弯状态下的视觉横向校正信息进行衰减处理,并利用衰减后的视觉横向校正信息对当前时刻的融合定位信息进行校正;
28.若所述当前累计时间不小于所述第二累计时间阈值,则将所述衰减后的视觉横向校正信息进行归零。
29.可选地,所述对所述转弯状态下的视觉横向校正信息进行衰减处理包括:
30.根据所述第一累计时间阈值和所述第二累计时间阈值,确定衰减因子;
31.根据所述衰减因子对所述转弯状态下的视觉横向校正信息进行衰减处理,得到衰减后的视觉横向校正信息。
32.可选地,在获取自动驾驶车辆的前一时刻的视觉横向校正信息和航向角之后,所述方法还包括:
33.确定是否获取到新的视觉横向校正信息;
34.若获取到,则利用新的视觉横向校正信息对当前时刻的融合定位信息进行校正。
35.第二方面,本技术实施例还提供一种自动驾驶车辆定位装置,其中,所述装置包括:
36.获取单元,用于获取自动驾驶车辆的前一时刻的视觉横向校正信息和航向角;
37.第一确定单元,用于根据所述前一时刻的视觉横向校正信息和航向角,确定所述自动驾驶车辆的转弯状态;
38.第二确定单元,用于根据所述前一时刻的视觉横向校正信息和航向角,以及所述自动驾驶车辆的转弯状态,确定转弯状态下的视觉横向校正信息;
39.第一校正单元,用于利用所述转弯状态下的视觉横向校正信息对当前时刻的融合定位信息进行校正,得到校正后的融合定位信息;
40.融合定位单元,用于将所述校正后的融合定位信息作为量测信息进行融合定位,得到所述自动驾驶车辆的最终融合定位结果。
41.第三方面,本技术实施例还提供一种电子设备,包括:
42.处理器;以及
43.被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器执行前述之任一所述方法。
44.第四方面,本技术实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储一个或多个程序,所述一个或多个程序当被包括多个应用程序的电子设备执行时,使得所述电子设备执行前述之任一所述方法。
45.本技术实施例采用的上述至少一个技术方案能够达到以下有益效果:本技术实施例的自动驾驶车辆定位方法,先获取自动驾驶车辆的前一时刻的视觉横向校正信息和航向角;然后根据前一时刻的视觉横向校正信息和航向角,确定自动驾驶车辆的转弯状态;之后根据前一时刻的视觉横向校正信息和航向角,以及自动驾驶车辆的转弯状态,确定转弯状态下的视觉横向校正信息;再利用转弯状态下的视觉横向校正信息对当前时刻的融合定位信息进行校正,得到校正后的融合定位信息;最后将校正后的融合定位信息作为量测信息进行融合定位,得到自动驾驶车辆的最终融合定位结果。本技术实施例的自动驾驶车辆定位方法考虑到车辆转弯等场景下无法稳定获取到准确的视觉横向校正信息的问题,通过分析车辆的转弯状态,确定了车辆在不同转弯状态下的视觉横向校正信息,并以此对当前时刻的融合定位结果进行校正,提高了自动驾驶车辆在转弯等场景下的定位精度和定位稳定性。
附图说明
46.此处所说明的附图用来提供对本技术的进一步理解,构成本技术的一部分,本技术的示意性实施例及其说明用于解释本技术,并不构成对本技术的不当限定。在附图中:
47.图1为本技术实施例中一种自动驾驶车辆定位方法的流程示意图;
48.图2为本技术实施例中一种视觉横向校正信息校正前后的融合定位误差对比直方图;
49.图3为本技术实施例中一种自动驾驶车辆定位装置的结构示意图;
50.图4为本技术实施例中一种电子设备的结构示意图。
具体实施方式
51.为使本技术的目的、技术方案和优点更加清楚,下面将结合本技术具体实施例及
相应的附图对本技术技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
52.以下结合附图,详细说明本技术各实施例提供的技术方案。
53.为了便于对本技术各实施例的理解,这里以自动驾驶车辆在转弯场景下的融合定位过程为例进行说明。当然需要说明的是,本技术的自动驾驶车辆定位方法的应用场景不局限于此,可以根据实际需求灵活扩展和调整。
54.具体地,考虑这样一种场景,假设车辆正在道路a上直行,该行驶过程中能够稳定获取到视觉横向校正信息,并利用获取到的视觉横向校正信息对融合定位信息进行了实时校正。随后,车辆从道路a转弯行驶到道路b,在转弯的过程中,由于缺少车道线信息,导致不能再稳定获取到视觉横向校正信息,这时如果直接省去视觉横向校正信息的校正环节,将会导致当前时刻的融合定位结果相比之前校正过的融合定位结果出现较大波动,进而影响了融合定位结果的稳定性和平滑性,且由于缺少了视觉横向校正信息的校正,也影响了融合定位的精度。
55.基于此,本技术实施例提供了一种自动驾驶车辆定位方法,如图1所示,提供了本技术实施例中一种自动驾驶车辆定位方法的流程示意图,所述方法至少包括如下的步骤s110至步骤s150:
56.步骤s110,获取自动驾驶车辆的前一时刻的视觉横向校正信息和航向角。
57.自动驾驶车辆的各种功能的实现主要依赖车辆上的自动驾驶系统,自动驾驶系统包含两大核心的子系统,即图像处理子系统和融合定位子系统,图像处理子系统用于实时采集道路图像并进行处理分析,从而为其他自动驾驶子系统提供视觉数据来源。融合定位子系统是实现车辆定位的实时性和稳定性的重要基础,其可以对其他自动驾驶子系统发送过来的定位数据进行融合处理,从而实现高精度定位。
58.本技术实施例的自动驾驶车辆定位方法可以由自动驾驶系统中的融合定位子系统来实现,在进行自动驾驶车辆定位时,需要先获取自动驾驶系统中的图像处理子系统发送过来的视觉横向校正信息,图像处理子系统通过实时采集道路图像,并基于高精地图结合视觉识别算法对图像中的车道线信息进行提取和识别,从而计算得到视觉横向校正信息,用以表征车道线识别的横向偏差,是提高融合定位精度和车道保持的重要基础。航向角可以基于惯导系统中的定位设备如rtk定位设备得到。
59.实际应用场景下,图像处理子系统发送视觉横向校正信息的频率与融合定位结果的输出频率一般不同,且视觉横向校正信息的接收会存在70ms至100ms左右的延迟,并且在车辆转弯等场景下,由于车道线缺失等情况导致图像处理子系统无法持续稳定输出视觉横向校正信息,进而导致接收到的视觉横向校正信息与融合定位子系统输出的当前时刻的融合定位信息在时间上并非是对应的,也即当前时刻的融合定位信息所真正对应的当前时刻的视觉横向校正信息还没有产生或者还没有被接收到,因此这里获取到是前一时刻即上一次接收到的视觉横向校正信息和对应的航向角。
60.步骤s120,根据所述前一时刻的视觉横向校正信息和航向角,确定所述自动驾驶车辆的转弯状态。
61.基于前述步骤,虽然获取到的视觉横向校正信息并非当前时刻的融合定位信息所
对应的校正信息,但在较短时间内,视觉横向校正信息的变化不会太大,因此该视觉横向校正信息仍具有一定的可用性。
62.本技术实施例的转弯状态例如可以包括左转弯和右转弯,由于视觉横向校正信息一般需要先转换到导航坐标系如东-北-天坐标系下才能用于后续的校正环节,这就导致不同的转弯方向会影响导航坐标系下的视觉横向校正信息的使用,因此这里可以先结合前一时刻的视觉横向校正信息和航向角,来确定自动驾驶车辆当前的转弯状态,例如是左转弯还是右转弯。
63.步骤s130,根据所述前一时刻的视觉横向校正信息和航向角,以及所述自动驾驶车辆的转弯状态,确定转弯状态下的视觉横向校正信息。
64.在确定了自动驾驶车辆当前的转弯状态后,需要利用航向角将前一时刻的视觉横向校正信息转换到对应的转弯状态下,即计算出自动驾驶车辆在对应的转弯状态下的视觉横向校正信息,例如自动驾驶车辆当前的转弯状态为左转弯,则需要将前一时刻的视觉横向校正信息转换为左转弯方向上的视觉横向校正信息。
65.步骤s140,利用所述转弯状态下的视觉横向校正信息对当前时刻的融合定位信息进行校正,得到校正后的融合定位信息。
66.在得到转弯状态下的视觉横向校正信息后,可以利用转弯状态下的视觉横向校正信息校正当前时刻的融合定位信息,得到校正后的融合定位信息,从而保证转弯等场景下的融合定位结果的稳定性和融合定位精度。
67.步骤s150,将所述校正后的融合定位信息作为量测信息进行融合定位,得到所述自动驾驶车辆的最终融合定位结果。
68.在得到校正后的融合定位信息后,为了进一步提高定位精度,可以将校正后的融合定位信息作为观测值进行量测更新,这里可以采用ekf(extended kalman filter,扩展卡尔曼滤波器)进行融合定位,从而得到最终的融合定位结果。
69.本技术实施例的自动驾驶车辆定位方法考虑到车辆转弯等场景下无法稳定获取到准确的视觉横向校正信息的问题,通过分析车辆的转弯状态,确定了车辆在不同转弯状态下的视觉横向校正信息,并以此对当前时刻的融合定位结果进行校正,提高了自动驾驶车辆在转弯等场景下的定位精度和定位稳定性。
70.在本技术的一个实施例中,所述前一时刻的视觉横向校正信息包括导航坐标系下的位置偏移量,所述位置偏移量包括x轴位置偏移量和y轴位置偏移量,所述根据所述前一时刻的视觉横向校正信息和航向角,确定所述自动驾驶车辆的转弯状态包括:将所述x轴位置偏移量的绝对值与所述y轴位置偏移量的绝对值进行比较;若所述x轴位置偏移量的绝对值大于所述y轴位置偏移量的绝对值,则根据所述x轴位置偏移量和所述航向角,确定所述自动驾驶车辆的转弯状态;若所述x轴位置偏移量的绝对值不大于所述y轴位置偏移量的绝对值,则根据所述y轴位置偏移量和所述航向角,确定所述自动驾驶车辆的转弯状态。
71.如前所述,本技术实施例的视觉横向校正信息主要是指导航坐标系下的位置偏移量,这里的导航坐标系可以是东-北-天坐标系,位置偏移量具体包括x轴位置偏移量dx和y轴位置偏移量dy。导航坐标系下的位置偏移量dx和dy可以根据图像处理子系统发送的视觉横向校正信息包括位置偏移量δ和航向角yaw转换得到,具体可以通过如下方式实现:
72.dx=-δ*sin(yaw);
73.dy=δ*sin(yaw)。
74.之后,在确定自动驾驶车辆的转弯状态时,可以先将x轴位置偏移量dx的绝对值与y轴位置偏移量的绝对值dy进行比较,从而可以区分出两种情况,一种情况是x轴位置偏移量dx的绝对值大于y轴位置偏移量的绝对值dy,另一种情况是x轴位置偏移量dx的绝对值不大于y轴位置偏移量的绝对值dy。
75.针对上述两种不同的比较结果,可以进一步结合航向角yaw分别采取不同的处理逻辑来确定自动驾驶车辆的转弯状态,这里可以先定义沿车体方向向左为正并令pn_flag=1,沿车体方向向右为负并令pn_flag=0,默认初始pn_flag=0,进而可以采用如下方式确定自动驾驶车辆的转弯状态:
[0076][0077]
在本技术的一个实施例中,所述前一时刻的视觉横向校正信息包括导航坐标系下的位置偏移量,所述根据所述前一时刻的视觉横向校正信息和航向角,以及所述自动驾驶车辆的转弯状态,确定转弯状态下的视觉横向校正信息包括:根据所述导航坐标系下的位置偏移量,确定视觉横向校正绝对值;根据所述视觉横向校正绝对值、所述航向角以及所述自动驾驶车辆的转弯状态,确定所述转弯状态下的视觉横向校正信息。
[0078]
在确定出自动驾驶车辆的转弯状态后,可以利用航向角将前一时刻的视觉横向校正信息转换为对应的转弯状态下的视觉横向校正信息,具体地,先根据导航坐标系下的位置偏移量包括x轴位置偏移量dx和y轴位置偏移量dy计算视觉横向校正绝对值_vio_dp,具体可以采用如下方式:
[0079]
_vio_dp=sqrt(dx()*dx() dy()*dy()),
[0080]
在得到视觉横向校正绝对值_vio_dp后,可以进一步结合航向角yaw以及自动驾驶车辆当前的转弯状态,确定该转弯状态下的视觉横向校正信息,具体可以采用如下方式:
[0081][0082]
可以看出,转弯方向的不同导致视觉横向校正信息包括x轴位置偏移量dx和y轴位置偏移量dy的具体计算方式也不同,经过上述逻辑处理后可以得到不同转弯状态下对应的视觉横向校正信息,由此解决了导航坐标系下的视觉横向校正信息无法直接对转弯场景下的融合定位结果进行校正的问题。
[0083]
在本技术的一个实施例中,在确定视觉横向校正绝对值之后,所述方法还包括:将所述视觉横向校正绝对值与预设绝对值阈值进行比较;若所述视觉横向校正绝对值不大于所述预设绝对值阈值,则根据所述视觉横向校正绝对值、所述航向角以及所述自动驾驶车辆的转弯状态,确定所述转弯状态下的视觉横向校正信息;若所述视觉横向校正绝对值大于所述预设绝对值阈值,则舍弃所述视觉横向校正绝对值。
[0084]
正常行驶情况下,视觉横向校正绝对值_vio_dp仅会在较小范围内波动,因此视觉横向校正绝对值_vio_dp的大小存在一定上限,即存在对应的绝对值阈值,如果计算得到的视觉横向校正绝对值_vio_dp超出了预设绝对值阈值,说明基于视觉识别算法得到的位置偏移量是不准确的,且误差较大,无法用于后续的校正环节,因此直接舍弃即可;反之,说明该位置偏移量的误差是可被接受的,可以用于后续的校正环节。通过上述过程可以实现对视觉横向校正信息的可用性进行初步验证,避免自身误差较大的视觉横向校正信息对融合定位精度造成影响。
[0085]
在本技术的一个实施例中,所述利用所述转弯状态下的视觉横向校正信息对当前时刻的融合定位信息进行校正包括:确定当前累计时间,所述当前累计时间从得到所述转弯状态下的视觉横向校正信息时开始计算;若所述当前累计时间小于第一累计时间阈值,则直接利用所述转弯状态下的视觉横向校正信息对当前时刻的融合定位信息进行校正;若所述当前累计时间不小于第一累计时间阈值但小于第二累计时间阈值,则对所述转弯状态下的视觉横向校正信息进行衰减处理,并利用衰减后的视觉横向校正信息对当前时刻的融合定位信息进行校正;若所述当前累计时间不小于所述第二累计时间阈值,则将所述衰减后的视觉横向校正信息进行归零。
[0086]
如前所述,本技术实施例获取到的前一时刻的视觉横向校正信息并非是当前时刻的融合定位信息所对应的校正信息,在较短时间内该视觉横向校正信息仍具有一定的可用性,但当较长时间内无法获取到新的视觉横向校正信息时,前一时刻的视觉横向校正信息
的可用性将会降低甚至不再可用,因此本技术实施例经过大量实验,设计了用于确定前一时刻的视觉横向校正信息在不同累计时间下的可用性的逻辑。
[0087]
这里需要先说明的是,本技术实施例定义的“当前累计时间”可以用来表征在得到转弯状态下的视觉横向校正信息后所经历的时长,当然也可以是在得到初始的前一时刻的视觉横向校正信息后所经历的时长,因为二者之间的时间偏差很小。
[0088]
第一种情形是,当上述当前累计时间尚未达到第一累计时间阈值时,说明获取到转弯状态下的视觉横向校正信息的时间与当前时刻之间的距离还较近,因此转弯状态下的视觉横向校正信息仍具有较高的可用性,这时可以直接利用转弯状态下的视觉横向校正信息对当前时刻的融合定位信息进行校正。
[0089]
第二种情形是,当上述当前累计时间达到第一累计时间阈值但尚未达到第二累计时间阈值时,此时说明获取到转弯状态下的视觉横向校正信息的时间距离当前时刻已经经过了相当一段时间,转弯状态下的视觉横向校正信息的可用性由于时间的累积而降低,但为了避免直接舍弃视觉横向校正信息的校正环节而带来的定位轨迹突变的情况,可以对转弯状态下的视觉横向校正信息进行一定的平滑处理操作,例如可以对转弯状态下的视觉横向校正信息进行逐步衰减处理,从而利用衰减后的视觉横向校正信息对当前时刻的融合定位信息进行校正,此种处理方式兼并考量了校正后的融合定位结果的稳定性和融合定位精度。
[0090]
第三种情形是,当上述当前累计时间达到第二累计时间阈值时,说明此时获取到转弯状态下的视觉横向校正信息的时间与当前时刻之间的距离已经较长,经过这较长的时间后,视觉横向校正信息可能已经发生了相对较大的变化,因此前一时刻对应的转弯状态下的视觉横向校正信息将不再可用,这时直接将视觉横向校正信息归零即可。
[0091]
上述第一累计时间阈值和第二累计时间阈值均为经验值,可以根据实际场景和实际需求灵活调整。为了便于对本技术实施例的理解,这里进一步举例说明,假设第一累计时间阈值为3s,第二累计时间阈值为6s,在当前累计时间小于3s时,可以直接利用转弯状态下的视觉横向校正信息对当前时刻的融合定位信息进行校正。在当前累计时间达到3s但未达到6s时,可以对转弯状态下的视觉横向校正信息进行衰减处理后再对当前时刻的融合定位信息进行校正。在当前累计时间达到6s时,则直接将视觉横向校正信息归零。
[0092]
在本技术的一个实施例中,所述对所述转弯状态下的视觉横向校正信息进行衰减处理包括:根据所述第一累计时间阈值和所述第二累计时间阈值,确定衰减因子;根据所述衰减因子对所述转弯状态下的视觉横向校正信息进行衰减处理,得到衰减后的视觉横向校正信息。
[0093]
本技术实施例在对转弯状态下的视觉横向校正信息进行衰减处理时,可以先计算衰减因子,该衰减因子可以表征视觉横向校正信息每一次衰减的程度。例如,第一累计时间阈值为3s,第二累计时间阈值为6s,视觉横向校正信息包括x轴位置偏移量dx和y轴位置偏移量dy,那么可以通过如下方式计算衰减因子vio_k:
[0094]
vio_k[0]=dx()/300.0;
[0095]
vio_k[1]=dy()/300.0;
[0096]
其中,上式中的300.0主要基于融合定位信息的输出频率,以及第一累计时间阈值和第二累计时间阈值之间的差值即衰减时长来确定,例如融合定位信息的输出频率通常为
100hz,那么在3s的衰减时长内,每一次衰减的比例就为1/300。
[0097]
进一步地,可以通过如下方式计算得到衰减后的视觉横向校正信息包括衰减后的x轴位置偏移量dx和衰减后的y轴位置偏移量dy:
[0098][0099]
基于上述逻辑,每一次衰减后得到的视觉横向校正信息都将作为计算下一次衰减因子的基础,而每一次计算得到的衰减因子又将作为下一次计算衰减后的视觉横向校正信息的基础,如此循环,用于校正的视觉横向校正信息的大小逐渐减小,进而实现了融合定位结果的平滑处理。
[0100]
基于上述实施例,可以得到不同情况下的视觉横向校正信息,最后可以基于如下方式对当前时刻的融合定位信息,如当前时刻的位置坐标(posx,posy)进行校正,从而得到校正后的位置坐标(posx',posy'):
[0101]
posx'=posx dx;
[0102]
posy'=posy dy。
[0103]
在本技术的一个实施例中,在获取自动驾驶车辆的前一时刻的视觉横向校正信息和航向角之后,所述方法还包括:确定是否获取到新的视觉横向校正信息;若获取到,则利用新的视觉横向校正信息对当前时刻的融合定位信息进行校正。
[0104]
上述实施例主要区分了前一时刻的视觉横向校正信息在不同累计时间下的可用性,其主要针对的是该过程中没有获取到新的视觉横向校正信息的情况而设置的。因此实际场景下,如果在上述过程中一旦获取到新的视觉横向校正信息,就可以基于新的视觉横向校正信息进行后续处理。
[0105]
这里进一步结合前述实施例说明,假设第一累计时间阈值为3s,第二累计时间阈值为6s,在3s内可以持续检测是否能够获取到新的视觉横向校正信息,如果能够获取到,则直接用新的视觉横向校正信息进行后续处理,如果无法获取到,在3秒以内,可以直接用前一时刻的视觉横向校正信息进行校正。当到达第3秒时,对前一时刻的视觉横向校正信息进行衰减处理,该过程中仍然可以持续检测是否获取到新的视觉横向校正信息,一旦获取到,则直接用新的视觉横向校正信息进行后续处理。当到达第6秒时,如果仍然没有获取到新的视觉横向校正信息,则直接将视觉横向校正信息归零,也即此种情况下不再进行校正处理。
[0106]
为了验证本技术的自动驾驶车辆定位方法的定位效果,如图2所示,提供了本技术实施例中一种视觉横向校正信息校正前后的融合定位误差对比直方图,可以看出,经过本技术的视觉横向校正信息的校正之后,融合定位误差大部分分布在0.15m以内,相比校正之前的融合定位误差大大降低,进而提高了融合定位精度。
[0107]
本技术实施例还提供了一种自动驾驶车辆定位装置300,如图3所示,提供了本申
请实施例中一种自动驾驶车辆定位装置的结构示意图,所述装置300至少包括:获取单元310、第一确定单元320、第二确定单元330、第一校正单元340以及融合定位单元350,其中:
[0108]
获取单元310,用于获取自动驾驶车辆的前一时刻的视觉横向校正信息和航向角;
[0109]
第一确定单元320,用于根据所述前一时刻的视觉横向校正信息和航向角,确定所述自动驾驶车辆的转弯状态;
[0110]
第二确定单元330,用于根据所述前一时刻的视觉横向校正信息和航向角,以及所述自动驾驶车辆的转弯状态,确定转弯状态下的视觉横向校正信息;
[0111]
第一校正单元340,用于利用所述转弯状态下的视觉横向校正信息对当前时刻的融合定位信息进行校正,得到校正后的融合定位信息;
[0112]
融合定位单元350,用于将所述校正后的融合定位信息作为量测信息进行融合定位,得到所述自动驾驶车辆的最终融合定位结果。
[0113]
在本技术的一个实施例中,所述前一时刻的视觉横向校正信息包括导航坐标系下的位置偏移量,所述位置偏移量包括x轴位置偏移量和y轴位置偏移量,所述第一确定单元320具体用于:将所述x轴位置偏移量的绝对值与所述y轴位置偏移量的绝对值进行比较;若所述x轴位置偏移量的绝对值大于所述y轴位置偏移量的绝对值,则根据所述x轴位置偏移量和所述航向角,确定所述自动驾驶车辆的转弯状态;若所述x轴位置偏移量的绝对值不大于所述y轴位置偏移量的绝对值,则根据所述y轴位置偏移量和所述航向角,确定所述自动驾驶车辆的转弯状态。
[0114]
在本技术的一个实施例中,所述前一时刻的视觉横向校正信息包括导航坐标系下的位置偏移量,所述第二确定单元330具体用于:根据所述导航坐标系下的位置偏移量,确定视觉横向校正绝对值;根据所述视觉横向校正绝对值、所述航向角以及所述自动驾驶车辆的转弯状态,确定所述转弯状态下的视觉横向校正信息。
[0115]
在本技术的一个实施例中,所述装置还包括:比较单元,用于将所述视觉横向校正绝对值与预设绝对值阈值进行比较;所述第二确定单元具体用于:若所述视觉横向校正绝对值不大于所述预设绝对值阈值,则根据所述视觉横向校正绝对值、所述航向角以及所述自动驾驶车辆的转弯状态,确定所述转弯状态下的视觉横向校正信息;所述装置还包括:舍弃单元,用于若所述视觉横向校正绝对值大于所述预设绝对值阈值,则舍弃所述视觉横向校正绝对值。
[0116]
在本技术的一个实施例中,所述第一校正单元340具体用于:确定当前累计时间,所述当前累计时间从得到所述转弯状态下的视觉横向校正信息时开始计算;若所述当前累计时间小于第一累计时间阈值,则直接利用所述转弯状态下的视觉横向校正信息对当前时刻的融合定位信息进行校正;若所述当前累计时间不小于第一累计时间阈值但小于第二累计时间阈值,则对所述转弯状态下的视觉横向校正信息进行衰减处理,并利用衰减后的视觉横向校正信息对当前时刻的融合定位信息进行校正;若所述当前累计时间不小于所述第二累计时间阈值,则将所述衰减后的视觉横向校正信息进行归零。
[0117]
在本技术的一个实施例中,所述第一校正单元340具体用于:根据所述第一累计时间阈值和所述第二累计时间阈值,确定衰减因子;根据所述衰减因子对所述转弯状态下的视觉横向校正信息进行衰减处理,得到衰减后的视觉横向校正信息。
[0118]
在本技术的一个实施例中,所述装置还包括:第三确定单元,用于确定是否获取到
新的视觉横向校正信息;第二校正单元,用于若获取到,则利用新的视觉横向校正信息对当前时刻的融合定位信息进行校正。
[0119]
能够理解,上述自动驾驶车辆定位装置,能够实现前述实施例中提供的自动驾驶车辆定位方法的各个步骤,关于自动驾驶车辆定位方法的相关阐释均适用于自动驾驶车辆定位装置,此处不再赘述。
[0120]
图4是本技术的一个实施例电子设备的结构示意图。请参考图4,在硬件层面,该电子设备包括处理器,可选地还包括内部总线、网络接口、存储器。其中,存储器可能包含内存,例如高速随机存取存储器(random-access memory,ram),也可能还包括非易失性存储器(non-volatile memory),例如至少1个磁盘存储器等。当然,该电子设备还可能包括其他业务所需要的硬件。
[0121]
处理器、网络接口和存储器可以通过内部总线相互连接,该内部总线可以是isa(industry standard architecture,工业标准体系结构)总线、pci(peripheral component interconnect,外设部件互连标准)总线或eisa(extended industry standard architecture,扩展工业标准结构)总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图4中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
[0122]
存储器,用于存放程序。具体地,程序可以包括程序代码,所述程序代码包括计算机操作指令。存储器可以包括内存和非易失性存储器,并向处理器提供指令和数据。
[0123]
处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,在逻辑层面上形成自动驾驶车辆定位装置。处理器,执行存储器所存放的程序,并具体用于执行以下操作:
[0124]
获取自动驾驶车辆的前一时刻的视觉横向校正信息和航向角;
[0125]
根据所述前一时刻的视觉横向校正信息和航向角,确定所述自动驾驶车辆的转弯状态;
[0126]
根据所述前一时刻的视觉横向校正信息和航向角,以及所述自动驾驶车辆的转弯状态,确定转弯状态下的视觉横向校正信息;
[0127]
利用所述转弯状态下的视觉横向校正信息对当前时刻的融合定位信息进行校正,得到校正后的融合定位信息;
[0128]
将所述校正后的融合定位信息作为量测信息进行融合定位,得到所述自动驾驶车辆的最终融合定位结果。
[0129]
上述如本技术图1所示实施例揭示的自动驾驶车辆定位装置执行的方法可以应用于处理器中,或者由处理器实现。处理器可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器可以是通用处理器,包括中央处理器(central processing unit,cpu)、网络处理器(network processor,np)等;还可以是数字信号处理器(digital signal processor,dsp)、专用集成电路(application specific integrated circuit,asic)、现场可编程门阵列(field-programmable gate array,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本技术实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常
规的处理器等。结合本技术实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。
[0130]
该电子设备还可执行图1中自动驾驶车辆定位装置执行的方法,并实现自动驾驶车辆定位装置在图1所示实施例的功能,本技术实施例在此不再赘述。
[0131]
本技术实施例还提出了一种计算机可读存储介质,该计算机可读存储介质存储一个或多个程序,该一个或多个程序包括指令,该指令当被包括多个应用程序的电子设备执行时,能够使该电子设备执行图1所示实施例中自动驾驶车辆定位装置执行的方法,并具体用于执行:
[0132]
获取自动驾驶车辆的前一时刻的视觉横向校正信息和航向角;
[0133]
根据所述前一时刻的视觉横向校正信息和航向角,确定所述自动驾驶车辆的转弯状态;
[0134]
根据所述前一时刻的视觉横向校正信息和航向角,以及所述自动驾驶车辆的转弯状态,确定转弯状态下的视觉横向校正信息;
[0135]
利用所述转弯状态下的视觉横向校正信息对当前时刻的融合定位信息进行校正,得到校正后的融合定位信息;
[0136]
将所述校正后的融合定位信息作为量测信息进行融合定位,得到所述自动驾驶车辆的最终融合定位结果。
[0137]
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
[0138]
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
[0139]
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
[0140]
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
[0141]
在一个典型的配置中,计算设备包括一个或多个处理器(cpu)、输入/输出接口、网络接口和内存。
[0142]
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(ram)和/或非易失性内存等形式,如只读存储器(rom)或闪存(flash ram)。内存是计算机可读介质的示例。
[0143]
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(pram)、静态随机存取存储器(sram)、动态随机存取存储器(dram)、其他类型的随机存取存储器(ram)、只读存储器(rom)、电可擦除可编程只读存储器(eeprom)、快闪记忆体或其他内存技术、只读光盘只读存储器(cd-rom)、数字多功能光盘(dvd)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
[0144]
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
[0145]
本领域技术人员应明白,本技术的实施例可提供为方法、系统或计算机程序产品。因此,本技术可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本技术可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
[0146]
以上所述仅为本技术的实施例而已,并不用于限制本技术。对于本领域技术人员来说,本技术可以有各种更改和变化。凡在本技术的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本技术的权利要求范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献