一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

对象检测方法、装置、电子设备及自动驾驶车辆与流程

2022-02-22 23:39:26 来源:中国专利 TAG:


1.本公开涉及自动驾驶领域,尤其涉及一种对象检测方法、装置、电子设备及自动驾驶车辆。


背景技术:

2.目前,单目视觉障碍物检测(monocular 3d object detection)技术是指在自动驾驶场景中利用单目相机传感器进行3d障碍物检测的技术。在当今的自动驾驶技术中,为了获取更为丰富的障碍物信息,提高自动驾驶系统的可靠性,基于视觉的障碍物检测技术扮演着越来越重要的角色。在相关技术中,通常有两种方案检测障碍物:(1)采用传统的对象检测技术检测障碍物。(2)采用基于神经网络的障碍物检测技术。
3.但是采用上述方案检测障碍物时,只能检测出物体的2d信息,处理性能低,且会存在很多的漏检和误检的现象。


技术实现要素:

4.本公开提供了一种对象检测方法、装置、电子设备及自动驾驶车辆。
5.根据本公开的一方面,提供了一种对象检测方法,包括:获取单目相机图像;对所述单目相机图像进行预测,得到所述单目相机图像中目标对象的2d中心点以及所述目标对象的3d预测信息;基于所述目标对象的2d中心点,确定所述目标对象的3d中心点;基于所述3d中心点以及所述目标对象的3d预测信息,确定所述目标对象的位置结果。
6.可选地,所述基于所述目标对象的2d中心点,确定所述目标对象的3d中心点包括:从所述目标对象的3d预测信息中提取所述目标对象的2d中心点与3d中心点之间的偏移量;基于所述2d中心点以及所述偏移量,确定所述目标对象的3d中心点。
7.可选地,所述基于所述2d中心点以及所述偏移量,确定所述目标对象的3d中心点包括:基于所述目标对象的2d中心点以及所述偏移量,确定所述目标对象在图像坐标系下的3d中心点;基于所述目标对象在所述图像坐标系下的3d中心点,以及单目相机的相机内参,确定所述目标对象在相机坐标系下的3d中心点。
8.可选地,所述基于所述3d中心点以及所述目标对象的3d预测信息,确定所述目标对象的位置结果包括:在所述目标对象的3d预测信息包括所述目标对象的角度,所述目标对象的尺度和所述目标对象的角点的情况下,基于所述3d中心点,所述角度和所述尺度,确定所述目标对象的3d边框点;采用所述目标对象的角点和所述3d边框点,对所述3d中心点进行优化,得到所述目标对象的位置结果。
9.可选地,所述对所述单目相机图像进行预测,得到所述单目相机图像中目标对象的2d中心点以及所述目标对象的3d预测信息包括:采用对象预测模型对所述单目相机图像进行预测,得到所述目标对象的2d中心点以及所述目标对象的3d预测信息,其中,所述对象预测模型采用多组数据训练得到,所述多组数据包括:样本单目相机图像,以及对该样本单目相机图像进行标注后得到的3d信息。
10.可选地,所述单目相机图像为自动驾驶场景中利用单目相机传感器采集的图像,所述目标对象为所述自动驾驶场景中的障碍物。
11.根据本公开的另一方面,提供了一种对象检测装置,包括:获取模块,用于获取单目相机图像;预测模块,用于对所述单目相机图像进行预测,得到所述单目相机图像中目标对象的2d中心点以及所述目标对象的3d预测信息;第一确定模块,用于基于所述目标对象的2d中心点,确定所述目标对象的3d中心点;第二确定模块,用于基于所述3d中心点以及所述目标对象的3d预测信息,确定所述目标对象的位置结果。
12.可选地,所述第一确定模块包括:第一确定单元,用于从所述目标对象的3d预测信息中提取所述目标对象的2d中心点与3d中心点之间的偏移量;第二确定单元,用于基于所述2d中心点以及所述偏移量,确定所述目标对象的3d中心点。
13.可选地,所述第二确定单元包括:第一确定子单元,用于基于所述目标对象的2d中心点以及所述偏移量,确定所述目标对象在图像坐标系下的3d中心点;第二确定子单元,用于基于所述目标对象在所述图像坐标系下的3d中心点,以及单目相机的相机内参,确定所述目标对象在相机坐标系下的3d中心点。
14.可选地,所述目标对象的3d预测信息包括:所述目标对象的角度,所述目标对象的尺度和所述目标对象的角点,所述第二确定模块包括:第三确定单元,用于基于所述3d中心点,所述角度和所述尺度,确定所述目标对象的3d边框点;处理单元,用于采用所述目标对象的角点和所述3d边框点,对所述3d中心点进行优化,得到所述目标对象的位置结果。
15.可选地,所述预测模块包括:预测单元,用于采用对象预测模型对所述单目相机图像进行预测,得到所述目标对象的2d中心点以及所述目标对象的3d预测信息,其中,所述对象预测模型采用多组数据训练得到,所述多组数据包括:样本单目相机图像,以及对该样本单目相机图像进行标注后得到的3d信息。
16.可选地,所述单目相机图像为自动驾驶场景中利用单目相机传感器采集的图像,所述目标对象为所述自动驾驶场景中的障碍物。
17.根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行任一项所述的方法。
18.根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据任一项所述的方法。
19.根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据任一项所述的方法。
20.根据本公开的另一方面,提供了一种自动驾驶车辆,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行任一项所述的方法。
21.应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
22.附图用于更好地理解本方案,不构成对本公开的限定。其中:
23.图1是根据本公开实施例的对象检测方法的流程图;
24.图2是本公开可选实施方式提供的方法的流程图;
25.图3是根据本公开实施例的对象检测装置的结构框图;
26.图4是用来实现本公开实施例的对象检测方法的电子设备的框图。
具体实施方式
27.以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
28.实施例1
29.图1是根据本公开实施例的对象检测方法的流程图,如图1所示,该方法包括如下步骤:
30.步骤s101,获取单目相机图像;
31.步骤s102,对单目相机图像进行预测,得到单目相机图像中目标对象的2d中心点以及目标对象的3d预测信息;
32.步骤s103,基于目标对象的2d中心点,确定目标对象的3d中心点;
33.步骤s104,基于3d中心点以及目标对象的3d预测信息,确定目标对象的位置结果。
34.通过上述步骤,通过对获取的单目相机图像进行预测,得到单目相机图像中目标对象的2d中心点以及目标对象的3d预测信息,基于目标对象的2d中心点,确定目标对象的3d中心点,再基于3d中心点以及目标对象的3d预测信息,以达到确定目标对象的位置结果的目的。即对单目相机图像进行预测得到2d中心点和3d预测信息,进而基于该2d中心点和3d预测信息得到目标对象的位置结果。相对于依据确定的区域进行预测,或者直接预测3d中心点的方案而言,一方面,3d预测信息是直接从图像中得到的,相比于相关技术中的后续处理而言,能够使得得到的位置结果更为准确;另一方面,由于不是直接预测3d中心点,因此,不会漏掉部分的目标对象(例如,截断的障碍物)。采用上述处理,能够达到精准检测目标对象的位置结果的目的,进而解决了相关技术中在检测目标对象的位置时,出现的检测精度低的技术问题。
35.作为一种可选的实施例,先要获取单目相机图像,获取单目相机图像可以通过多种途径,例如,自动驾驶场景中利用单目相机传感器采集,通过车载单目摄像头采集,等等。获取单目相机图像后,可以先将图像进行预处理,再对单目相机图像进行预测,例如,可以先将单目相机图像经过滤除噪声、校正不均匀光线,增强对比度等的预处理后,再输入至模型中进行预测,得到单目相机图像中目标对象的2d中心点以及目标对象的3d预测信息,能够直接从单目相机图像中得到3d预测信息,保证了3d预测信息是基于单目相机图像本身所携带的信息的,并非后期处理得到的信息,因此,使得得到的3d预测信息更为准确。得到单目相机图像中目标对象的2d中心点后,基于单目相机图像中目标对象的2d中心点,确定目标对象的3d中心点,其中,3d中心点是根据目标对象的2d中心点得到的,并不是直接预测得
到的,由于对2d中心点的预测是准确的,不会出现遗漏的情况,因此,能够保证对目标对象全面地进行处理,不会漏掉部分的目标对象,例如,确定的是截断障碍物中心点的情况。基于3d中心点以及目标对象的3d预测信息,确定目标对象的位置结果,因为目标对象的位置结果是根据3d中心点以及目标对象的3d预测信息确定的,因此能够使得得到的目标对象的数量和位置结果更为准确。
36.需要说明的是,在自动驾驶的场景中,上述目标对象可以为自动驾驶场景中的障碍物,可以根据不同的场景选取不同的目标对象,以满足实际的应用与需求。目标对象的3d预测信息可以包括多种,例如:目标对象的角度,目标对象的尺度和目标对象的角点,其中,对目标对象的3d预测信息可以是基于坐标系得出的信息。在自动驾驶的场景中,目标对象的3d预测信息即为障碍物的角度,障碍物的尺度,障碍物的角点,等等。作为一种可选的实施例,在对单目相机图像进行预测,得到单目相机图像中目标对象的2d中心点以及目标对象的3d预测信息时,可以采用对象预测模型对单目相机图像进行预测,其中,对象预测模型采用多组数据训练得到,多组数据包括:样本单目相机图像,以及对该样本单目相机图像进行标注后得到的3d信息。采用多组数据对对象预测模型进行训练,由于多组数据是包括样本单目相机图像以及对该样本单目相机图像进行标注后得到的3d信息的,因此能够有效避免预测不准确、预测遗漏等问题,为后续使用该对象预测模型得到准确的预测结果提供基础。另外,本可选实施例提供的对象预测模型在对单目相机图像进行预测时,该对象预测模型的结构大致可以分为两部分,第一部分是backbone(骨干网),主要用来提取网络特征,例如,用于对单目相机图像中所涉及的各种对象特征进行检测;第二部分是检测head(检测核心网),主要用来对backbone输出的特征(图)进行目标对象(比如,障碍物)检测。与基于区域的障碍物检测算法不同,该对象预测模型的目标对象检测算法不需要使用预先定义好的anchor(即不需要预先确定出目标对象所在的区域),而是使用关键点(例如,目标对象的2d中心点)代表(目标对象,例如,障碍物),同时输出更容易扩展。从核心检测网络输出的检测结果,以目标对象为障碍物为例,可以包括以下几个部分:障碍物的2d中心点,障碍物在图像中的角点,2d中心点和3d中心点的offset(偏差),3d的尺度信息,3d位置信息和角度信息。另外,需要说明的是,该对象预测模型的障碍物检测算法不需要使用非极大值抑制算法处理检测结果,只需要取出局部区域得分最高的点即可得到对应的障碍物。
37.作为一种可选的实施例,对象预测模型可以包括多种,例如,基于深度神经网络的对象预测模型。需要说明的是,上述所指的基于深度神经网络的对象预测模型仅仅为一种举例。可以根据不同的需要选择,提供了选择基于不同方法的对象预测模型的多样性,使用起来更加灵活、便捷,大大地提高对象预测模型的适用性。
38.作为一种可选的实施例,基于目标对象的2d中心点,确定目标对象的3d中心点时,可以基于2d中心点与3d中心点之间的偏移量确定出目标对象的3d中心点,可以包括如下步骤:从目标对象的3d预测信息中提取目标对象的2d中心点与3d中心点之间的偏移量,基于2d中心点以及偏移量,确定目标对象的3d中心点。依据预测得到的2d与3d之间的偏移量,以及2d中心点确定3d中心点。该2d中心点与实际3d中心点的偏移量可以是由上述对象预测模型预测得到的,即是基于单目相机原始的信息获得的,因此,得到的该2d中心点与实际3d中心点之间的偏移量也是准确的,进而,使得依据该偏移量以及2d中心点,得到的3d中心点也更为准确。
39.作为一种可选的实施例,在基于2d中心点以及偏移量,确定目标对象的3d中心点的过程中,可以先基于目标对象的2d中心点以及偏移量,确定目标对象在图像坐标系下的3d中心点,基于目标对象在图像坐标系下的3d中心点,以及单目相机的相机内参,确定目标对象在相机坐标系下的3d中心点。通过确定目标对象在图像坐标系下的3d中心点,并结合单目相机的相机内参,进行坐标系的变换,确定出目标对象在相机坐标系下的3d中心点,即通过利用几何的方式,调整校正目标对象的中心点,并结合相机内参将目标对象的3d中心点进行展示,得到真实3d场景下的目标对象的中心点,为后续计算得到的准确的真实3d场景下的目标对象的位置提供基础。
40.作为一种可选的实施例,在基于3d中心点以及目标对象的3d预测信息,确定目标对象的位置结果时,还可以包括如下步骤:在目标对象的3d预测信息包括目标对象的角度,目标对象的尺度和目标对象的角点的情况下,基于3d中心点,角度和尺度,确定目标对象的3d边框点,即可以计算得出目标对象的3d边框点,一般来说,3d边框点为8个点,在空间内显示为包括目标对象的立方体形状,采用目标对象的角点和3d边框点,可以对3d中心点进行优化,得到目标对象的位置结果。采用目标对象的角点和边框点对计算得到的3d真实位置进行优化,使得最终获得的3d真实位置更为准确。因此,采用依据对象预测模型对单目相机图像预测得到的3d角度和尺度计算得到目标对象的3d边框点,一方面快速,另一方面准确;而且采用该3d边框点和采用对象预测模型对单目相机图像预测得到的角点对上述得到的3d中心点进行优化,得到目标对象更为准确的位置结果。
41.基于上述实施例及可选实施例,提供了一种可选实施方式,下面具体说明。需要说明的是,在本可选实施方式中,以对单目相机图像中的障碍物检测为例进行说明。
42.如上所述,相关技术中,基于视觉的障碍物检测技术通常采用如下两种方案:(1)采用传统的对象检测技术检测障碍物,借助图像的纹理、边缘等特征,对图像中的障碍物进行检测;(2)基于神经网络的障碍物检测算法,过程为使用神经网络模型对单目相机采集的图像进行障碍物检测,输出障碍物的类别、边框、尺度以及角度信息,然后利用后处理估算出障碍物在相机坐标系下的真实位置。
43.但是采用上述方案解决问题时,根据使用场景的不同,所带来的问题和不足也有所不同:方案(1)需要手动设计特征提取算子,检测效率较低,同时也容易受到噪声的干扰,不具备较好的泛化性,在实际场景中难以应用。方案(2)使用神经网络的方法,对2d障碍物检测算法进行拓展到3d,这种方案有效地解决了方案(1)效率低,效果差的问题,但是由于没有预测3d距离,只能依靠后处理进行求取,导致距离预测的效果受到限制,无法有效提高3d障碍物检测精度。即相关技术中的方案难以准确地预测障碍物的位置信息。
44.为了解决难以准确地预测障碍物的位置信息的问题,需要从中心点预测问题与3d位置信息预测问题这两方面考虑,鉴于此,本公开可选实施方式中提供了一种单目视觉障碍物检测方法,从这两方面进行考虑,解决了在设计和实现障碍物检测的过程中出现的中心点预测问题与3d位置信息预测问题:
45.对于中心点预测问题,在障碍物检测任务中,准确找到障碍物的3d中心点是必要任务。相关技术的部分算法通常使用图像中障碍物的2d中心点替代3d中心点,但通常两个点的位置会有较大的偏移,尤其是近距离障碍物,导致最终检测出的障碍物跟实际情况偏差较大。相关技术的还有部分算法直接在图像中预测3d中心点,虽然避免了上述偏差,但存
在部分障碍物3d中心点在图像外的情况,因此对于截断的障碍物存在漏检情况。
46.针对中心点预测问题,本发明可选实施方式中的方法采取2d中心点结合2d和3d偏移量的方式获得障碍物的3d中心点。对于图像中所有的障碍物都有对应的2d中心点,因此不会漏掉截断的障碍物。同时偏移量的存在使得我们的算法可以获取较为准确的3d中心点,在将障碍物映射为3d坐标时不会出现较大的偏移。
47.对于3d位置信息预测问题,相关技术中只采用单目相机图像进行检测,由于单目相机图像中没有深度信息,无法直接准确的获取障碍物的距离。因此相关技术中的算法利用障碍物的2d边框计算距离,耗时长,而且结果依赖于模型预测的初值,大多数情况下效果并不理想。
48.针对3d位置信息预测问题,本发明可选实施方式中的方法采用模型深度预测结合几何后处理优化的方式获取障碍物的3d位置信息。直接利用神经网络模型输出对应障碍物的距离,并利用2d关键点和3d关键点的几何对应关系对结果进行优化,得到最终的位置。
49.下面对本公开可选实施方式中提供的单目视觉障碍物检测方法进行详细介绍:
50.以自动驾驶的场景为例,本公开可选实施方式中提供的方法基于神经网络模型和大量的标注数据,在2d障碍物检测算法的基础上进行拓展,得到障碍物3d信息,能有效的解决单目障碍物检测中3d中心点偏移和深度预测不准确导致的检测精度较低的问题。图2是本公开可选实施方式提供的方法的流程图,如图2所示,本公开可选实施方式中方法的关键在于障碍物检测网络,即模型预测,与几何约束优化,即3d重建两个部分,下面分别对两个部分进行介绍:
51.(1)模型预测:使用基于关键点的视觉障碍物检测模型检测目标图像,能够标注出图像中的障碍物信息,包括障碍物的类别、尺度、角度和位置等信息。其中,一个障碍物可以确定出一个2d中心点,即每一个2d中心点代表一个障碍物,在障碍物的个数为多个的情况下,可以确定出多个2d中心点。
52.(2)3d重建:基于上述基于关键点的视觉障碍物检测模型预测出的信息,利用几何优化算法调整障碍物位置,同时使用相机内参重建出障碍物的3d位置。
53.步骤如下:
54.s1,根据上述的2d中心点和偏移量计算图像坐标系下的3d中心点:
55.xc=x
t
δx;
56.yc=y
t
δy;
57.需要说明的是,公式中的x
t
、y
t
分别为障碍物在图像中的2d中心点,δx、δy为模型预测的2d中心点和3d中心点的偏移量。
58.s2,得到图像坐标系下的3d中心点后,根据距离和相机内参可以计算出相机坐标系下3d中心点,即障碍物的真实位置:
[0059][0060]
需要说明的是,公式中的xc、yc为上一步求出的3d中心点,为相机内参,x,y,z代表了障碍物的真实位置。
[0061]
s3,得到中心点坐标后,结合障碍物的角度、尺度信息便可以求出障碍物的3d边框
点:
[0062][0063]
需要说明的是,公式中θ为角度,hwl代表障碍物的尺寸,x,y,z是上一步求出来的位置,最终得到3d边框的8个点,3d边框的8个点用b表示。
[0064]
s4,利用上一步求出来的边框点,和模型预测直接得到的边框点,即角点,对位置x,y,z做进一步优化,最终计算得到的障碍物位置信息。
[0065][0066]
需要说明的是,x
*
,y
*
,z
*
就是最终计算得到的障碍物位置信息。
[0067]
即通过本发明可选实施方式所提供的方法,通过输入单目相机图像,能够得到障碍物的2d中心点,障碍物在图像中的角点,2d中心点和3d中心点的offset(偏移量),3d的尺度信息,3d位置信息和角度信息。
[0068]
通过上述可选实施方式,可以达到充分利用图像中的深度信息以及检测结果之间的几何关系,提高了视觉障碍物检测技术在自动驾驶场景下的可靠性的有益效果。
[0069]
需要说明的是,本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。而且,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本公开并不受所描述的动作顺序的限制,因为依据本公开,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本公开所必须的。
[0070]
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如rom/ram、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本公开各个实施例的方法。
[0071]
实施例2
[0072]
根据本公开实施例,还提供了一种用于实施上述对象检测方法的装置,图3是根据本公开实施例的对象检测装置的结构框图,如图3所示,该装置包括:获取模块301,预测模块302,第一确定模块303和第二确定模块304,下面对该装置进行详细说明。
[0073]
获取模块301,用于获取单目相机图像;预测模块302,连接于上述获取模块301,用于对单目相机图像进行预测,得到单目相机图像中目标对象的2d中心点以及目标对象的3d预测信息;第一确定模块303,连接于上述预测模块302,用于基于目标对象的2d中心点,确定目标对象的3d中心点;第二确定模块304,连接于上述第一确定模块303,用于基于3d中心点以及目标对象的3d预测信息,确定目标对象的位置结果。
[0074]
作为一种可选的实施例,第一确定模块303包括:第一确定单元,用于从目标对象的3d预测信息中提取目标对象的2d中心点与3d中心点之间的偏移量;第二确定单元,用于
基于2d中心点以及偏移量,确定目标对象的3d中心点。
[0075]
作为一种可选的实施例,第二确定单元包括:第一确定子单元,用于基于目标对象的2d中心点以及偏移量,确定目标对象在图像坐标系下的3d中心点;第二确定子单元,用于基于目标对象在图像坐标系下的3d中心点,以及单目相机的相机内参,确定目标对象在相机坐标系下的3d中心点。
[0076]
作为一种可选的实施例,目标对象的3d预测信息包括:目标对象的角度,目标对象的尺度和目标对象的角点,第二确定模块包括:第三确定单元,用于基于3d中心点,角度和尺度,确定目标对象的3d边框点;处理单元,用于采用目标对象的角点和3d边框点,对3d中心点进行优化,得到目标对象的位置结果。
[0077]
作为一种可选的实施例,预测模块302包括:预测单元,用于采用对象预测模型对单目相机图像进行预测,得到目标对象的2d中心点以及目标对象的3d预测信息,其中,对象预测模型采用多组数据训练得到,多组数据包括:样本单目相机图像,以及对该样本单目相机图像进行标注后得到的3d信息。
[0078]
作为一种可选的实施例,单目相机图像为自动驾驶场景中利用单目相机传感器采集的图像,目标对象为自动驾驶场景中的障碍物。
[0079]
此处需要说明的是,上述获取模块301,预测模块302,第一确定模块303和第二确定模块304对应于实施对象检测方法中的步骤s101至步骤s104,多个模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例1所公开的内容。
[0080]
实施例3
[0081]
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质,一种计算机程序产品以及一种自动驾驶车辆。
[0082]
图4是用来实现本公开实施例的对象检测方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
[0083]
如图4所示,设备400包括计算单元401,其可以根据存储在只读存储器(rom)402中的计算机程序或者从存储单元408加载到随机访问存储器(ram)403中的计算机程序,来执行各种适当的动作和处理。在ram 403中,还可存储设备400操作所需的各种程序和数据。计算单元401、rom 402以及ram 403通过总线404彼此相连。输入/输出(i/o)接口405也连接至总线404。
[0084]
设备400中的多个部件连接至i/o接口405,包括:输入单元406,例如键盘、鼠标等;输出单元407,例如各种类型的显示器、扬声器等;存储单元408,例如磁盘、光盘等;以及通信单元409,例如网卡、调制解调器、无线通信收发机等。通信单元409允许设备400通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
[0085]
计算单元401可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元401的一些示例包括但不限于中央处理单元(cpu)、图形处理单元(gpu)、各种专用的人工智能(ai)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(dsp)、以及
任何适当的处理器、控制器、微控制器等。计算单元401执行上文所描述的各个方法和处理,例如对象检测方法。例如,在一些实施例中,对象检测方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元408。在一些实施例中,计算机程序的部分或者全部可以经由rom 402和/或通信单元409而被载入和/或安装到设备400上。当计算机程序加载到ram 403并由计算单元401执行时,可以执行上文描述的对象检测方法的一个或多个步骤。备选地,在其他实施例中,计算单元401可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行对象检测方法。
[0086]
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(fpga)、专用集成电路(asic)、专用标准产品(assp)、芯片上系统的系统(soc)、负载可编程逻辑设备(cpld)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
[0087]
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
[0088]
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦除可编程只读存储器(eprom或快闪存储器)、光纤、便捷式紧凑盘只读存储器(cd-rom)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
[0089]
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,crt(阴极射线管)或者lcd(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
[0090]
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数
字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(lan)、广域网(wan)和互联网。
[0091]
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
[0092]
自动驾驶车辆,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述任一项的对象检测方法。
[0093]
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明公开的技术方案所期望的结果,本文在此不进行限制。
[0094]
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献