一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种陆空融合的自动驾驶系统的制作方法

2022-08-17 09:05:28 来源:中国专利 TAG:


1.本发明涉及自动驾驶技术领域,具体来说是涉及一种陆空融合的自动驾驶系统。


背景技术:

2.目前已提出自动驾驶系统,用以取代车辆在驾驶员的控制下行驶的手动驾驶模式,自动驾驶车辆或有其嵌入的自动驾驶系统通常包括多个传感器以探测车辆周围的物体,这些物体应及时被探测和定位,以免与车辆发生碰撞,许多现有自动驾驶系统包括光探测和测距(lidar)设备、摄像机或无线电探测和测距(雷达)传感器。
3.然而,这些传感器还不能探测被另一个物体阻挡的物体,例如,在另一车辆后面行走的行人,这些传感器也很难在低能见度天气中探测到其他车辆,即使在晴天,如果不进一步改进的话,这些传感器的探测范围也被限制在一百米左右。


技术实现要素:

4.以下简要概括本发明的一个或多个发明形态以便对本发明有基本了解,该概括不涉及所有的具体发明形态,并且既不旨在确定所有发明形态主要或关键要素,也不阐释所有发明形态的范围,其唯一目的是简要描述一个或多个发明形态的某些概念,作为后续更详细描述的开始。
5.本发明的一个实施形态提供了一个自动驾驶系统示例,所述自动驾驶系统示例可以包括空中的无人驾驶飞行器(以下简称“无人机”)。无人机可以包括至少一个无人机摄像机以及无人机通信模块,所述摄像机设置为采集第一地面交通信息,所述无人机通信模块设置为发送所采集到的第一地面交通信息。所述自动驾驶系统示例还可包括与空中无人机通信连接的陆地车辆。所述陆地车辆可以包括一个或多个车辆传感器、陆地通信模块以及处理器;所述车辆传感器设置为采集所述陆地车辆周围的第二地面交通信息,所述陆地通信模块设置为从无人机接收所述第一地面交通信息,所述处理器设置为组合所述第一地面交通信息和所述第二个地面交通信息生成世界模型。
6.为了实现上述相关目的,一个或多个发明形态包括在权利要求中充分描述和特别指出的本发明技术特征。以下说明内容和附图详细阐述了一个或多个发明形态的某些说明性技术特征。尽管如此,这些技术特征表明其中一些可能应用各发明形态的原理,并且本说明书旨在包括所有这些形态及其等同形态。
附图说明
7.图1表示根据本发明有空中支援的自动驾驶系统的示意图。
8.图2表示根据本发明第二种有空中支援的自动驾驶系统的示意图。
9.图3表示根据本发明第三种有空中支援的自动驾驶系统的示意图。
10.图4表示根据本发明有空中支援的自动驾驶系统组件示例的示意图。
11.图5表示在根据本发明有空支援的自动驾驶系统示例中交通信息转换的示意图。
12.图6表示借助根据本发明有空中支援的自动驾驶系统示例,探测可通行区域的示意图。
13.图7表示根据本发明有空中支援的自动驾驶系统示例的组合探测范围的示意图。
14.图8表示在根据本发明有空中支援的自动驾驶系统示例中一感知神经网络示例的示意图。
15.图9表示在根据本发明有空中支援的自动驾驶系统示例中另一神经网络示例的示意图。
16.图10表示在根据本发明有空中支援的自动驾驶系统示例中另一神经网络示例的示意图。
17.图11表示在根据本发明有空中支援的自动驾驶系统示例中一神经网络示例的示意图。
18.图12表示在根据本发明有空中支援的自动驾驶系统示例中实施自动驾驶的方法示例的流程图。
19.图13表示在场景示例中有空中支援的自动驾驶系统的示意图。
20.图中:104.无人机 102.陆地车辆 108.车辆 110.车辆 112.交通信号灯 106.控制中心 202.车辆 402.无人机摄像头 404.无人机lidar传感器 406.无人机传感器 408无人机通信模块 410无人机处理器 420.陆地车辆处理器 412.陆地车辆摄像机 414.陆地车辆lidar传感器 416.陆地车辆传感器 418.陆地车辆通信模块 424.中央处理器 422控制中心通信模块 502.车辆 604.可到达区域 702.探测范围 704.探测范围 706.融合地图范围 802.感知神经网络 804.查询 810.图像 812.图像 814.点云 816.点云 818特征提取网络 806.被感知对象 904.被无人机感知的对象 920.被二维坐标系中的无人机感知的对象 922.约束条件 918.转换矩阵 902.被陆地车辆感知的对象 916.转换网格 912.特征提取网络 914.特征提取网络 908.图像 910.图像 1002.图像 1004.图像 1010.特征提取网络 1006.融合神经网络 1008.被感知对象 1120.被二维坐标系中的无人机感知的对象 1118.转换举证 1116.转换网络 1124.被感知对象 1126.融合神经网络 1104.被无人机感知的对象 1102.被陆地车辆感知的对象 1112.特征提取网络 1114.特征提取网络 1108.图像 1110.图像 1302.公交车 1304.公交车 1306.公交车
具体实施方式
21.现参考附图描述本技术的各发明形态。在以下描述中,出于说明目的,阐述了许多具体细节从而能够透彻理解一个或多个发明形态。尽管如此,显然没有这些具体细节也能实现这些发明形态。
22.在本发明中,术语“包括”和“包含”以及它们的派生词是指包含而非限定;术语“或”也包括在内,表示和/或。
23.在本说明书中,以下用于说明本发明原理的各实例仅用于说明目的,因此不应理解为以任何方式限制本发明的范围。以下结合附图进行描述以便透彻理解由权利要求及其等同形态限定的本发明说明性实例。下面具体描述细节便于理解本发明。然而,这些细节描述仅出于说明目的。因此,本领域的技术人员应当理解,在不超出本发明的范围和宗旨的情况下,可以对本说明书中所示实例进行各种替换和修改。此外,为了清楚、简明,没有给出众
所周知的功能和结构。此外,在所有附图中,相同的附图标记表示相同的功能和操作。
24.图1表示根据本发明有空中支援的自动驾驶系统100示例的示意图。
25.如图所示,自动驾驶系统100示例包括地面上的陆地车辆102和空中的无人驾驶飞行器(无人机)104。在一些实施例中,优选地无人机104可以是存储在陆地车辆102中充电,释放或发射的无人机。在一些其他实施例中,无人机104可以任何空中飞行器,例如卫星。
26.当无人机104被释放并悬停在陆地车辆上方时,无人机104的多个传感器可以设置为采集地面交通信息。在一些实施例中,无人机104可以设有摄像机传感器、雷达传感器和/或lidar传感器。由于无人机104在空中,无人机104的传感器可以采集更多或至少不同种类的地面交通信息。例如,如图所述,当陆地车辆102在一车辆108后面行驶时,陆地车辆102上的传感器可能无法捕获该车辆108前面的车辆110的任何信息。在一些其他实施例中,道路上的出口或急转弯可能被车辆108、110阻挡,使得陆地车辆102上的传感器可能无法探测到出口。与陆地车辆102上的传感器不同,无人机104上的传感器可以具备采集陆地车辆102传感器通常无法感知或无法检探测到地面交通信息的能力。
27.在一些实施例中,无人机104上的传感器可以设置为采集视觉图像和/或从地面对象到无人机104的距离。该视觉图像和距离可以进一步转换为三维(三维)坐标系中的地面交通信息(以下简称“第一地面交通信息”)。无人机104的位置可以是三维坐标系的坐标原点。无人机104的处理器可以转换所采集到的视觉图像和距离信息,也可以选择,将所采集到的视觉图像和距离信息传输到控制中心106或陆地车辆102。控制中心106的处理器或陆地车辆102上的处理器进行转换处理。
28.在一些实施例中,第一地面交通信息可以包括陆地车辆102在三维坐标系中的位置、静态对象在地面上的位置(例如,道路边沿、车道分割线、停车标志等)、诸如地面动态对象(例如,行人、其他陆地车辆等)的速度和加速度等运动信息及位置、交通信号灯(例如,红绿灯112)的状态信息,以及表示从无人机104角度陆地车辆102可到达区域的区域信息。可以将第一地面交通信息的位置形成三维坐标系中的坐标的集合、一个或多个点云、一个或多个语义片段或上述物体的对象特征。
29.当陆地车辆102在道路上时,陆地车辆上的传感器(例如,摄像机传感器、雷达传感器和/或lidar传感器)可以设置为采集陆地车辆102周围的信息。类似地,陆地车辆上的传感器可以采集周围物体的视觉图像和/或距离信息。采集到的视觉图像和距离信息可以进一步转换为二维(二维)坐标系中的地面交通信息(以下简称“第二地面交通信息”)。陆地车辆102的位置可以是二维坐标系的坐标原点。
30.类似地,第二地面交通信息可以包括静态对象在地面上的位置(例如,道路边沿、车道分隔线、停车标志等)、诸如动态对象在地面上的速度和加速度等运动信息(例如,行人、其他陆地车辆等)及位置、交通信号灯的状态信息、以及表示从陆地车辆102角度陆地车辆102可到达区域的区域信息。
31.由无人机104和陆地车辆102所分别采集到的地面交通信息可进一步组合从而生成世界模型。世界模型可以包括分别由无人机104和陆地车辆102所采集到的信息的组合。在一些实施例中,可以将三维坐标系中的第一地面交通信息转换为以陆地车辆102为坐标原点的二维坐标系。无人机104的处理器、陆地车辆102的处理器或控制器中心106处的处理器可以进行这种转换。根据图5和图8-11进一步更详细地说明生成世界模型的过程。
32.由于世界模型包括陆地车辆102上的传感器难以感知的那些物体的位置信息,因此基于世界模型控制陆地车辆的路线、行为和运动变得更有效,可能更安全。例如,当世界模型包括车辆108、110的速度和加速度时,如果车辆108、110之间的距离有足够时间通过,则陆地车辆的处理器可设置为生成通过车辆108的指令。
33.从复杂度熵系统角度看,为了抵消单车智能自动驾驶系统自然反复的熵增,车辆-无人机协同自动驾驶引入熵减智能元素。通过车辆-无人机协同,可以引入空-地子系统的感知和协同规划能力,解决盲点感知问题,同时扩大感知范围并提高决策规划的安全性和鲁棒性。此外,车辆-无人机协同更为依赖于数据积累和协同,通过数据挖掘进一步提升个体单车智能化水平和学习增强型智能水平。通过这种方式,车辆-无人机协同引入智能无人机端的高维数据等正交元素,实现一种新型智能方式以实现熵减对抗系统复杂度熵增。
34.图2表示根据本发明有空中支援的自动驾驶系统示例的示意图。
35.如图2所示场景,当陆地车辆102探测到陆地车辆102正在接近十字路口时,可以释放无人机104到空中,无人机104在陆地车辆102之前飞向十字路口,一般在陆地车辆102到达十字路口之前。在一些实施例中,在飞行过程中无人机104可以空中跟随或引导陆地车辆102。
36.当无人机104靠近或在十字路口附近时,无人机104的传感器可设置为采集第一地面交通信息,包括人行横道、车道分界线、道路边沿或移动车辆202的位置。然后陆地车辆102或控制中心106的处理器可组合第一地面交通信息与第二地面交通信息从而生成世界模型。由于世界模型包括由无人机104在第一地面交通信息中采集的运动信息,因此陆地车辆102的处理器可以设置为确定陆地车辆102的右转速度,或者判断在移动车辆202的速度达到给定阈值时陆地车辆102是否停车让路。
37.图3表示根据本发明有空中支援的自动驾驶系统的示意图。
38.如图所示,一个或多个无人机)可在十字路口附近盘旋。这些无人机可能最初分别与不同的陆地车辆搭配,或者是为政府交管部门采集信息的智慧城市基础设施的一部分。这些无人机可以各自相互之间,或与陆地车辆102之间,或与控制中心106之间通信。在该实施例中,由多个无人机所分别采集/生成的第一地面交通信息可以被传送到陆地车辆102、控制中心106,或任一一架无人机,从而生成世界模型。
39.鉴于由无人机所分别采集/生成的第一地面交通信息理论上包括更广大地理范围的交通信息,因此世界模型可以包括更多动态对象的信息。基于世界模型所做出的自动驾驶决策可能更安全或更高效。例如,如果世界模型包括在陆地车辆102的盲点周围行走的人的运动信息,则陆地车辆102上的处理器可以紧急刹车。
40.图4表示根据本发明有空中支援的自动驾驶系统组件示例的示意图。
41.如图所示,无人机104可以设有传感器,例如一个或多个无人机的摄像机402、一个或多个无人机lidar传感器、其他无人机传感器(例如,雷达传感器)。无人机摄像机402可以设置为捕获地面交通的图像。无人机lidar传感器可以设置为确定地面上物体的距离信息,即地面对象与无人机104之间的距离。诸如雷达传感器等的其他无人机传感器406可以类似地设置为确定地面对象的距离信息。所采集到的图像和距离信息可以被发送到无人机处理器410,以便转换为第一地面交通信息。然后借助无人机通信模块408可以将第一地面交通信息发送到陆地车辆102。根据诸如wi-fi、蓝牙、zigbee、z-wave、miwi等无线通信协议无人
机通信模块408可以与陆地车辆通信模块418和/或控制中心通信模块422通信。在其他实施例中,无人机通信模块408可将图像和距离信息发送到陆地车辆102或控制中心106以便进行转换。
42.陆地车辆可以设有传感器,例如一个或多个陆地车辆摄像机412、一个或多个陆地车辆lidar传感器、以及其他陆地车辆传感器(例如,雷达传感器)。类似地,陆地车辆摄像机412可以设置为捕获陆地车辆102周围的地面交通的图像。陆地车辆lidar传感器414和其他陆地车辆传感器416可以设置为确定周围物体的距离。通常,陆地车辆102上的传感器可以采集陆地车辆102数百米内的交通信息。
43.类似地,所采集到的图像和距离信息可以被发送到陆地车辆处理器420从而转换为第二地面交通信息。在一些其他实施例中,可以将所采集到的图像和距离信息发送到无人机104或控制中心106进行转换。
44.根据无人机104所采集到的第一地面交通信息和陆地车辆102所采集的第二地面交通信息,陆地车辆处理器420可以设置为生成世界模型。值得注意的是,在至少一些实施例中,无人处理器410或中央处理器424也可以生成世界模型。
45.基于世界模型,陆地车辆处理器420可以设置为替陆地车辆102做出决策。
46.图5表示在根据本发明有空中支援的自动驾驶系统示例中交通信息转换的示意图。
47.如图所示,无人机104的处理器可以设置为在三维坐标系中生成第一地面交通信息。在三维坐标系中,每个地面对象可以与一组或多组坐标相关联。例如,每一段地面分割线可以与两组坐标相关联,这两组坐标标定该线段的开始和结束位置。车辆502可以与四组坐标相关联,四组坐标分别标定围绕车辆502的虚拟边框的四个角。
48.可以将一些对象格式化成三维坐标系中的函数曲线,例如,其他一些对象可以格式化成数据链。例如,每一段车道分割线可以与自身的编号和下一段的编号相关联。
49.在一些其他实施例中,可以将每个地面对象表示为语义片段(或实例片段)。语义片段也可以与三维坐标系中的坐标相关联。此外,每个语义片段可以包括对象所属类别的概率。例如,道路边沿部分可以表示为“(x,y,z)(95%)(道路边沿)”,表明坐标(x,y,z)处的对象很可能是道路边沿。
50.在一些其他实施例中,可以将每个地面对象表示为包括空中一组数据点的点云。每个数据点可以与一组坐标相关联。
51.另外,一些地面对象可以与该对象所面对的方向相关联。例如,根据无人机摄像机402所采集到的图像可确定自行车、行人或汽车的方向。
52.另外,运动信息可以与地面上的每个动态对象相关联。例如,格式为(vx,vy,vz)的速度和格式为(ax,ay,az)的加速度可以与车辆502相关联。在一些实施例中,第一地面交通信息可以包括地面上动态对象的预测轨迹。根据一些现有的方法,例如基于模型的方法和/或数据驱动的方法,无人机处理器410可以生成动态对象的预测轨迹。
53.从无人机104角度看第二地面交通信息与第一地面交通信息的不同之处是,其由以陆地车辆102的位置为坐标原点的二维坐标系表示。类似地,第二地面交通信息可以包括
地面对象的坐标、代表某地面对象的二维坐标系中的二维函数曲线、某地面对象的语义片段、某地面对象的点云、相对某物体的方向,地面上某动态对象的运动信息,以及动态对象的预测轨迹。
54.在生成世界模型的过程中,可以将第一地面交通信息转换为二维坐标系。地面对象在三维坐标系中的位置可以与相同对象在二维坐标系中的位置对齐从而生成世界模型。
55.例如,陆地车辆处理器420、无人机处理器410或中央处理器424可以设置为将一个或多个静态对象的坐标、一个或多个动态对象的坐标、一个或多个交通信号灯的坐标和在三维坐标系中被识别出的一个或多个可到达区域的坐标转换为二维坐标系中的坐标;并根据转换后的坐标和第二地面交通信息,确定一个或多个静态对象的坐标、一个或多个动态对象的坐标、一个或多个交通信号灯的坐标以及在世界模型中被识别出的一个或多个可到达区域的坐标。
56.在其他实施例中,陆地车辆处理器420、无人机处理器410或中央处理器424可以设置为将一个或多个静态对象的语义片段、一个或多个动态对象的语义片段、一个或多个交通信号灯的语义片段和在三维坐标系中被识别出的一个或多个可到达区域的语义片段转换为二维坐标系中的语义片段;并根据转换后的语义片段和第二地面交通信息,确定一个或多个静态对象的语义片段、一个或多个动态对象的语义片段、一个或多个交通信号灯的语义片段以及在世界模型中被识别出的一个或多个可到达区域的的语义片段。
57.而且,在其他实施例中,陆地车辆处理器420、无人机处理器410或中央处理器424可以设置为将一个或多个静态对象的点云、一个或多个动态对象的点云、一个或多个交通信号灯的点云和在三维坐标系中被识别出的一个或多个可到达区域的点云转换为二维坐标系中的点云;并根据转换后的点云和第二地面交通信息,确定一个或多个静态对象的点云、一个或多个动态对象的点云、一个或多个交通信号灯的点云以及在世界模型中被识别出的一个或多个可到达区域的点云。
58.下面更详细地描述坐标系的转换。
59.图6表示借助根据本发明有空中支援的自动驾驶系统示例,探测可通行区域的示意图。
60.如上所述,第一地面交通信息和第二地面交通信息可以包括表示陆地车辆102可到达区域的区域信息。这些区域也可以被识别为坐标的集合。因此,世界模型也可以表示如图6中图案所标记的可到达区域。在一些实施例中,可以基于交通规则和地面对象的运动信息确定可到达区域604并进行动态调整。例如,当探测到车辆602紧急制动时,可以调整该可到达区域604,使得陆地车辆102可以保持安全距离。
61.图7表示根据本发明有空中支援的自动驾驶系统示例的组合探测范围的示意图。
62.如图所示,由于陆地车辆102上传感器的限制,陆地车辆102的探测范围702可能限于距离陆地车辆102数百米的范围内。由于无人机04上传感器可以采集通常不能被陆地车辆102传感器所感知的信息,因此无人机104的探测范围704可能比探测范围702大得多。
63.进一步地,由于世界模型本质上包括第一地面交通信息和第二地面交通信息的组合,因此世界模型的范围可能大于或至少等于无人机104的探测范围704。
64.图8表示在根据本发明有空中支援的自动驾驶系统示例中一感知神经网络示例的示意图。
65.如图所示,由无人机102及陆地车辆102的传感器(例如,无人机摄像机402、无人机lidar传感器404、无人机传感器406、陆地车辆摄像机412、陆地车辆lidar传感器414、陆地车辆传感器416等)所分别所采集到的图像和位置信息(例如,图像810和812,lidar点,例如点云814和816)可以通过一个或多个特征提取网络818输入到感知神经网络802。特征提取网络818可以设置为从图像和位置信息中提取特征。然后可以将所提取到的特征输入到感知神经网络802中。
66.系统标注人员(人)可以基于其经验来标记图像810和812上的对象以设定感知神经网络802的真实数值。在有一定数量的标注信息之后,感知神经网络802可以探测图像中所描述的对象和位置信息,并输出感知对象806(例如道路上的其他车辆、可到达区域、车道分割线等)作为结果。
67.图9表示在根据本发明有空中支援的自动驾驶系统示例中另一坐标系变换网络的示意图。
68.如上所述,可以将第一地面交通信息转换为二维坐标系,从而与第二地面交通信息一致;然后可以组合第一地面交通信息和第二地面交通信息,从而生成世界模型。世界模型可以包括可被无人机104的传感器或陆地车辆102的传感器所感知对象的信息。转换网络916可以得到无人机端和车辆端两个坐标系之间的转换矩阵918。
69.无人机摄像机(例如402)所采集到的图像908,可以被发送到特征提取网络912,从而提取图像908中所包含对象的特征。当经过适当训练时,特征提取网络912可以输出那些被无人机904所感知对象的特征。
70.类似地,由陆地车辆摄像机(例如412)所采集的图像910,可以被发送到特征提取网络914,从而提取图像910中所包含对象的特征。当经过适当训练时,特征提取网络914可以输出那些被陆地车辆902所感知对象的特征。
71.组合无人机904及陆地车辆902所感知对象的特征并输入到转换网络916。训练之后,转换网络916可以输出转换矩阵918。利用转换矩阵918,将由无人机904的感知结果转换为车辆端坐标下的感知结果与陆地车辆902感知对象进行比较,以确定无人机904和陆地车辆102所感知对象的结果在转换坐标后是否一致。比较的结果可以作为约束条件反馈到转换网络916,以便进一步训练转换网络916从而产生更佳的转换矩阵918。
72.值得注意的是,在至少一些实施例中,转换网络916可以设置为生成旨在将无人机端坐标系转换为车辆端的坐标系的转换矩阵。过程和操作与上述类似。
73.图10表示在根据本发明有空中支援的自动驾驶系统示例中另一神经网络示例的示意图。
74.如上所述,可以将无人机端和车辆端的传感器信号输入到网络,由网络直接输出融合后的世界模型,不需要显式计算两个坐标系之间的变换矩阵。世界模型可以包括可由无人机104的传感器和/或陆地车辆102的传感器所感知的对象的信息。
75.可选地,由无人机摄像机(例如402)所采集到的图像1002和由陆地车辆摄像机(例如412)所采集到的图像1004,可以直接提交给融合神经网络,而不需要坐标转换。
76.系统标注人员(人)可以基于其经验来标定图像1002和1004上的对象以设置融合神经网络1006的真实数值。在有一定数量的标注信息之后,融合神经网络1006最终可以探测到图像中所描述对象和位置信息,并输出被感知对象1008(例如,道路上的其他车辆、可
到达区域、车道分割线等)作为结果。
77.图11表示在根据本发明有空中支援的自动驾驶系统示例中多个神经网络组成结构示例的示意图。
78.如上所述,图9所示结构可以与图10所示融合神经网络组合。
79.由无人机104所采集到的图像1108和由陆地车辆102所采集到的图像1110可以被分别输入到特征提取网络1112、1114。由无人机1104所感知对象的特征可以由特征提取网络1112生成;由陆地车辆1102所感知对象的特征可以由特征提取网络1114生成。如上所述根据图9,这些特征可用于生成转换矩阵1118。同时,也可以将特征输入到融合神经网络1126,从而识别出图像1108、1110中的对象。
80.尽管可能不需要转换矩阵1118来识别图像1108、1110中的对象,但是转换矩阵1118可以用于未来路线规划和其他自动驾驶决策。
81.图12表示在根据本发明有空中支援的自动驾驶系统示例中实施自动驾驶的方法示例的流程图。该流程图表明实施有空中支援的自动驾驶的过程。
82.方法示例的操作内容可以包括至少一个无人机摄像机采集第一地面交通信息。例如,无人机104上的传感器可以设置为采集视觉图像和/或从地面对像到无人机104的距离。视觉图像和距离可以进一步转换为三维坐标系中的第一地面交通信息。
83.方法示例的操作内容可以包括无人机通信模块将采集到的第一地面交通信息传输到陆地车辆。例如,无人机通信模块408将第一地面交通信息传输到陆地车辆102。
84.方法示例的操作内容可以包括通过一个或多个车辆传感器采集陆地车辆周围的第二地面交通信息。例如,陆地车辆摄像机412可以设置为捕获陆地车辆102周围的地面交通的图像。陆地车辆lidar传感器414和其他陆地车辆传感器416可以设置为确定周围物体的距离信息。类似地,所采集的图像和距离信息可以发送到陆地车辆处理器420,以便转换为第二地面交通信息。
85.方法示例的操作内容可以包括陆地通信模块从无人机接收第一地面交通信息。例如,陆地车辆通信模块418可以设置为通过一个或多个无线通信链路从无人机104接收第一地面交通信息。
86.方法示例的操作内容可以包括处理器融合第一地面交通信息和第二地面交通信息,从而生成世界模型。例如,陆地车辆处理器420可以设置为生成世界模型。世界模型可以包括分别由无人机104和陆地车辆102所采集的信息的组合。在一些实施例中,可以将三维坐标系中的第一地面交通信息转换为以陆地车辆102为坐标原点的二维坐标系。这种转换可以由无人机104的处理器、陆地车辆102的处理器或控制器中心106的处理器执实现。
87.图11表示在场景示例中有空中支援的自动驾驶系统的示意图。如图所示,在一些场景示例中,当多辆车辆在陆地车辆102周围行驶时,可能阻挡陆地车辆102上的传感器使得陆地车辆102不能识别必要的信息来确定其本身的位置,从而可能进一步导致不正确的驾驶决策,例如,闯红灯或错过出口。
88.在该场景示例中,由于第一地面交通信息包括陆地车辆以及陆地车辆102上的传感器无法感知的其他物体的位置,因此世界模型可以包括生成正确驾驶决策所必需的信息,例如,接近道路出口时改变车道。
89.可以借助包括硬件(例如,电路、专门逻辑单元等)、固件、软件(例如,嵌入在非瞬
态计算机可读介质的软件)以及任一两者组合的处理逻辑系统实现以上附图所示的过程和方法。尽管在某些顺序操作方面以上内容描述了该过程或方法,但是应该理解的是,这里所描述的某些操作可以按照不同的顺序来执行。此外,一些操作可以同时执行而不是顺序执行。
90.在以上描述中,本发明的每个实施例都参照某些说明性实施例进行解释。任何上述组件或设备都可以通过硬件电路(例如,专用集成电路(asic))来实现。显然,在不超出本发明权利要求所公开的更广宗旨和范围的情况下,可以对每个实施例进行多种修改。相应地,本说明书和附图应被理解为仅是说明性的而非限制性的。应当理解的是,所公开过程中步骤的特定顺序或层次是对示例性方法的解释。基于设计偏好,可以理解的是,能够重新安排过程中步骤的特定顺序或层次结构。此外,可以合并或省略一些步骤。本发明方法权利要求以顺序示例展示各个步骤的元素,并不意味着限定于所展示的特定顺序或层次结构。
91.做出上述描述使得本领域的任何技术人员能够实现本技术的各种形态。对于本领域技术人员来说,这些发明形态的各种修改是显而易见的,并且本技术所定义的一般原理可以应用于其他发明形态。因此,权利要求不旨在限于本技术的发明形态,而是要符合与权利要求文字意义一致的全部范围,其中以单数形式提及的元件不是表示“一个且只有一个”的意思,除非特别明确如此陈述,否则其意思是“一个或多个”。除非另有明确说明,否则术语“一些”是指一个或多个。本领域技术人员已知或将要知道的本技术所记载的各形态的元素的所有结构以及在功能上等同结构,通过引用明确地包含在本技术且被权利要求所涵盖。此外,本技术所公开的任何内容均不旨在向公众开放使用,无论此类公开内容是否在权利要求中明确记载。任何权利要求的技术特征均不得解释为有基于功能限定的技术手段,除非该特征使用短语“用于

的手段”明确引用。
92.此外,术语“或”旨在表示包含性“或”而不是排他性“或”。也就是说,除非另有说明,或从上下文中清楚地理解,否则短语“x采用a或b”旨在表示任何自然包含性组合。即,“x采用a或b”这一短语表示以下任何一种含义:x采用a;x采用b;或x同时采用a和b。
93.以上所述,仅为此发明的具体实施方式,但本发明的保护范围不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案和新型的构思加于等同替换或改变,都应涵盖在本发明的保护范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献