一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于信令交互的AI注智的制作方法

2022-08-13 04:58:38 来源:中国专利 TAG:

基于信令交互的ai注智
技术领域
1.本公开属于人工智能领域,尤其涉及人工智能(ai)注智过程。


背景技术:

2.人工智能(artificial intelligence,简称ai)是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。随着互联网大数据的兴起,人工智能(ai)在安防、汽车、医疗、智能家居及智能制造等领域进一步落地,各种开放或通用的ai平台应运而生。作为一种基础的、独立的计算引擎,ai平台为应用系统提供智能化服务。ai平台为应用系统提供智能化服务的过程,业内称之为“注智”。
3.ai平台为应用系统注智时需要进行各种操作。其中的重要环节是模型训练和预测,通过训练或预测交互流程,可实现“数据”到“知识”的转换。当前,支持ai平台的训练或预测交互流程实现的主流方式是open api。
4.图1示出了在模型预测环节的ai平台为应用系统进行注智的示意图。其中,在open api流程框架下,应用系统将待测数据和应用场景信息提交至ai平台。ai平台为待测数据提供所需的模型和计算资源,执行相应的预测操作,并返回相应的识别结果和状态。
5.在模型预测环节的注智过程的具体实现中,应用端向ai平台发起预测请求,ai平台接收到来自应用端的预测请求,执行模型有效性核查。在模型有效的情况下,ai平台将有效的模型加载到存储器中,然后通过利用人工分配的cpu、gpu或其它资源完成模型预测以获得预测结果。此后,ai平台通过预测应答返回预测结果和状态至应用端。应用端对所接收到的预测结果和状态进行处理,如果状态无异常,则应用端解析预测结果,并发起下一次预测。相反,如果有异常,则人工将参与排错,恢复故障。
6.图2示出了在模型预测环节的当前ai平台为应用系统注智的流程,其中包括两次人脸识别预测以及一次携号转网预测的流程。
7.如图中所示,在“人脸识别预测信令/流程(第一次)”中,首先应用端发起人脸识别请求;ai平台接收到来自应用端的人脸识别请求,执行模型有效性核查、模型加载操作以及资源分配,然后利用模型和所分配的资源进行人脸识别计算,并且在人脸识别应答中返回人脸识别结果和状态。
8.应用端在接收到的人脸识别结果中解析识别状态,如果无异常,则可以按上文所述的方式发起下一次预测识别,如图中所示的“人脸识别预测信令/流程(第二次)”,或“携号转网预测信令/流程(第一次)”。相反,如果应用端在接收到的人脸识别结果中识别出异常状态,则人工参与排错,恢复故障,如图中所示的“状态诊断信令”。之后,再以上文所述的方式发起下一次预测。
9.然而,当前的ai平台注智过程存在着大量的冗余环节和人工干预,导致效率降低。因此,如何提升ai平台注智的效率给ai平台设计带来了新的挑战,也成为ai领域的研究重点。
10.除非另有说明,否则不应假定本节中描述的任何方法仅仅因为包含在本节中而成
为现有技术。同样,除非另有说明,否则关于一种或多种方法所认识出的问题不应在本节的基础上假定在任何现有技术中都认识到。


技术实现要素:

11.本公开提出了改进的基于信令传输的ai注智,尤其是ai资源分配。通过应用端与ai平台之间的信令传输,实现改进的应用配置控制,提高了工作效率,并减少了状态诊断流程中的人工参与成本。
12.本公开的一个方面涉及一种人工智能(ai)平台侧电子设备,所述ai平台能够与应用侧进行信令交互以执行具有相同应用配置的至少一次ai注智过程,所述ai平台侧电子设备包括处理电路,所述处理电路被配置为接收来自应用侧的针对所述至少一次ai注智过程的配置请求,所述配置请求包括指示该应用配置的信息;并且在所述应用配置得到满足的情况下,分派所述应用配置以供所述至少一次ai注智过程运行时使用。
13.本公开的另一个方面涉及一种应用侧电子设备,所述应用侧能够与人工智能(ai)平台侧进行信令交互以执行具有相同应用配置的至少一次ai注智过程,所述应用侧电子设备包括处理电路,所述处理电路被配置为向ai平台侧电子设备发送针对所述至少一次ai注智过程的配置请求,所述配置请求包括指示该应用配置的信息;接收来自ai平台侧电子设备的指示所述应用配置得到满足的应答信息,并且向ai平台侧电子设备发送执行所述至少一次ai注智过程的操作请求,而不再提出任何其它配置请求。
14.本公开的还另一个方面涉及一种人工智能(ai)平台侧的方法,所述ai平台能够与应用侧进行信令交互以执行具有相同应用配置的至少一次ai注智过程,所述方法包括接收步骤,所述接收步骤接收来自应用侧的针对所述至少一次ai注智过程的配置请求,所述配置请求包括指示该应用配置的信息;并且分派步骤,在所述应用配置得到满足的情况下,所述分派步骤分派所述应用配置以供所述至少一次ai注智过程运行时使用。
15.本公开的还另一个方面涉及一种应用侧的方法,所述应用侧能够与人工智能(ai)平台侧进行信令交互以执行具有相同应用配置的至少一次ai注智过程,所述方法包括:第一发送步骤,所述第一发送个步骤向ai平台侧电子设备发送针对所述至少一次ai注智过程的配置请求,所述配置请求包括指示该应用配置的信息;接收步骤,所述接收步骤接收来自ai平台侧电子设备的指示所述应用配置得到满足的应答信息,以及第二发送步骤,所述第二发送步骤向ai平台侧电子设备发送执行所述至少一次ai注智过程的操作请求,而不再提出任何其它配置请求。
16.本公开的还另一个方面涉及一种存储可执行指令的非暂时性计算机可读存储介质,所述可执行指令当被执行时实现如前所述的方法。
17.本公开的又另一个方面涉及一种设备。根据一个实施例,所述设备包括:处理器和存储装置,所述存储装置存储有可执行指令,所述可执行指令当被执行时实现如前所述的方法。
18.提供本公开内容是为了以简化的形式介绍一些概念,这些概念将在下面的详细描述中进一步描述。本公开内容不旨在标识所要求保护的主题的关键特征或必要特征,也不旨在用于限制所要求保护的主题的范围。从以下对实施例的详细描述和附图中,本技术的其他方面和优点将变得显而易见。
附图说明
19.下面结合具体的实施例,并参照附图,对本公开的上述和其它目的和优点做进一步的描述。在附图中,相同的或对应的技术特征或部件将采用相同或对应的附图标记来表示。
20.图1示出了ai平台为应用系统注智的基本概念图。
21.图2以模型预测环节为例说明了当前ai平台注智的流程。
22.图3以模型预测环节为例说明了当前ai平台注智过程中存在的缺陷。
23.图4a示出了根据本公开的实施例的ai平台侧的电子设备的框图,图4b示出了根据本公开的实施例的ai平台侧方法的流程图。
24.图5示出了根据本公开的实施例的加入了资源控制信令交互的ai注智操作流程。
25.图6示出了根据本公开的实施例的使用了资源控制信令的人脸识别过程。
26.图7示出了根据本公开的实施例的不同模型预测场景共同请求资源的过程。
27.图8示出了根据本公开的实施例的添加状态监控信息以增强链路感知的示意图。
28.图9a示意性地示出了根据本公开的实施例的应用侧电子设备的框图,图9b示意性地示出了根据本公开的实施例的应用侧方法的流程图。
29.图10示出了在其中可以实现根据本公开的实施例的计算机系统概图。
30.虽然在本公开内容中所描述的实施例可能易于有各种修改和另选形式,但是其具体实施例在附图中作为例子示出并且在本文中被详细描述。但是,应当理解,附图以及对其的详细描述不是要将实施例限定到所公开的特定形式,而是相反,目的是要涵盖属于权利要求的精神和范围内的所有修改、等同和另选方案。
具体实施方式
31.在下文中将结合附图对本公开的示范性实施例进行描述。为了清楚和简明起见,在说明书中并未描述实施例的所有特征。然而,应该了解,在对实施例进行实施的过程中必须做出很多特定于实施方式的设置,以便实现开发人员的具体目标,例如,符合与设备及业务相关的那些限制条件,并且这些限制条件可能会随着实施方式的不同而有所改变。此外,还应该了解,虽然开发工作有可能是非常复杂和费时的,但对得益于本公开内容的本领域技术人员来说,这种开发工作仅仅是例行的任务。
32.在此,还应当注意,为了避免因不必要的细节而模糊了本公开,在附图中仅仅示出了与至少根据本公开的方案密切相关的处理步骤和/或设备结构,而省略了与本公开关系不大的其他细节。
33.如前文所述的,当前的ai注智过程存在着大量的冗余环节和人工干预,导致操作开销大而效率降低。以下将参照图3来详细说明当前ai注智过程中存在的缺陷。图3以模型预测环节为例说明了当前ai注智过程中存在的缺陷,主要存在如下三种缺陷。
34.1.操作开销大,响应时延长
35.在当前ai注智过程中,在每一计算过程之前都需要进行模型的核查和加载,也就是检测模型的有效性,例如是否应发生优化更新,以及加载模型,如图3中

所示。而频繁的核查和加载操作需要耗费大量时间和内存资源,这样增加了系统的操作开销,导致响应时间长。
36.2.静态资源分配,缺乏适配机制
37.在当前的ai注智过程中进行计算操作时使用的资源是通过后台“静态”分配而被设定的。也就是说,所使用的资源是由人工设定的并且始终保持固定,而即使资源池中存在其它可用硬件资源,也无法实时地、灵活地进行资源分配,如图3中

所示。
38.例如:人脸识别模型预测,理论上可选择cpu、gpu资源。但后台配置为cpu时,在人脸识别模型预测过程中后台配置将保持不变,而应用系统以及ai平台都无法自由选择gpu参与计算。
39.3.感知能力薄弱,人工成本增加
40.从目前主流的集中式ai平台来看,提供给应用端的状态机制主要有两种类型:沿用网络状态码和自定义业务状态码。但它们都有各自的问题:
41.1)沿用网络状态码(如:400、401等),无法真实反应业务逻辑,影响代码问题定位;
42.2)自定义业务状态码(如:1111为“资源不足”、1112为“数据异常”等),但缺少异常状态指示控制。
43.这些问题都导致在注智过程中进行问题诊断时人工参与环节过多,大大降低了ai预测或训练的效率,如图3中

所示。
44.随着应用场景复杂化,对ai注智服务要求也相应提高,尤其是在响应速度、资源适配、故障诊断等方面提出了新的要求。因此,鉴于当前ai平台注智过程中存在的明显影响效能的缺陷,本公开了提出了改进的基于信令传输的ai平台注智,尤其是改进的关于应用的ai注智配置。
45.根据本公开,ai注智或者平台注智可以指的是针对应用系统要执行的应用提供智能化,即针对应用进行的注智,这里应用可以包括人脸识别、携号转网等等,当然还可以包括其他类型的应用。对于每种应用,根据本公开的ai平台注智过程包括但不限于应用模型训练过程(例如,对于应用系统所要执行的应用,训练该应用的模型)、应用模型利用过程(使用经训练的或者预先设定的应用模型来执行该应用,诸如前述的模型预测过程)等等。
46.根据本公开的ai注智过程的信令传输可指的是在应用端和ai平台之间进行的信号发送和/或接收,用于将应用模型、应用所需资源、应用状态信息/代码等等相互关联,从而提供了便捷和高效的注智服务。优选地,根据本公开的ai注智过程的信令传输可以是在针对应用进行ai注智过程时所需要的应用配置的信息的信令传输,所需要的配置可指的是执行ai注智过程所需的元素(诸如模型、资源、以及执行所必需的其它元素)的配置/设定。该信息可被称为应用配置信息,并且可以包括用于前述应用模型训练过程、应用模型利用过程等的配置的信息,例如资源配置、模型配置等相关的信息。当然,该信息还可以是在针对应用进行ai注智过程时所需要的其它配置有关的信息。
47.根据本公开的ai注智过程的信令传输可以指的是应用端与ai平台之间的各种形式的信号传输。作为一个示例,可以包括应用端与ai平台之间的单向信号传输。例如,应用端向ai平台发送请求信号,ai平台向应用端或者第三方发送应答信号等等。作为另一个示例,可以包括应用端与ai平台之间的双向信号传输,例如应用端向ai平台发送请求信号而ai平台向应用端发送相应的应答信息。在此情况下信令传输可被称为信令交互。作为示例,这里所提及的信号包括应用配置信息、应用操作相关的信息,系统状态相关的信息等等,以下将结合实施例进行详细描述。
48.根据本公开的一个方面,应用端和ai平台之间进行配置信令传输可以优化针对应用进行的具有相同应用配置的至少一次ai注智过程,其中该应用配置可以至少包括执行ai注智过程所需的资源配置,并且附加地,还可包括执行ai注智过程所需的模型配置。特别地,ai平台根据来自应用端的配置请求预先满足执行所述至少一次ai注智过程所需的配置,从而在每次ai注智过程中可以固定地使用该配置,省去了现有技术中每一次ai注智过程都需要进行的模型核查/加载以及资源绑定等现有冗余操作,节省了工作开销,提高了效率。
49.根据本公开的另一个方面,应用端和ai平台之间进行配置信令传输可以动态调整针对应用执行的ai注智过程中所需的配置。作为示例,该动态调整可至少涉及资源的动态调整。特别地,ai平台可以根据来自应用端的配置请求中的特定参数来为应用端动态分配资源,或者通过应答信息将当前资源池中的可用资源状况告知应用端,以便应用端可确定是否调整资源配置,从而可实现优化的资源分配。
50.根据本公开的还另一方面,ai平台可以通过与应用端之间的信令传输向应用端报告状态监控信息,状态监控信息中以代码化的字段来指示当前的状态,从而应用端可以自动识别状态监控信息中字段的代码,判断状态类型,执行相应的处理操作,从而实现状态诊断流程中的自动化处理,降低了人工参与成本,提高了注智过程的效率。
51.以下将结合附图详细描述根据本公开的实施例。应指出,根据本公开的实施例的ai平台侧执行的操作可通过ai平台侧的电子设备来实现,该电子设备可以与ai平台分离、可以是ai平台的一部分,例如其组件、部件等,也可以是为ai平台本身。根据本公开的实施例的应用端执行的操作可通过应用端的电子设备来实现。该电子设备可以与应用端分离、可以是应用端的一部分,例如其组件、部件等,也可以是为应用端本身。因此,以下描述中所提及的ai平台侧和应用端所进行的操作均可经由用于ai平台侧的电子设备和用于应用端的电子设备相应地执行。
52.图4a示出了根据本公开的实施例的ai平台侧的电子设备的框图。ai平台能够与应用端进行交互以执行具有相同应用配置的至少一次ai注智过程。电子设备400包括处理电路420,并且该处理电路420可被配置为接收来自应用端的针对所述至少一次ai注智过程的配置请求,所述配置请求包括指示应用配置的信息;并且在可满足所述应用配置的情况下(例如,应用配置指示的或者相对应的元素可用),提供所述应用配置以供所述至少一次ai注智过程运行时使用。
53.根据一个实施例,应用配置可以至少包括资源配置,因此指示应用配置的信息可以指示执行所述至少一次ai注智过程所需的资源。因此,在所请求的资源可用的情况下,可以将资源分配给所述至少一次ai注智过程,从而在后续操作中,所述至少一次ai注智过程能够固定地使用所分配的资源来执行。
54.该指示资源配置的信息可被以各种方式提供。作为示例,该指示资源配置的信息可以至少包括执行ai注智过程所需的资源的类型,并且还可包括资源的数量和/或资源的编号,它们可表现为列表的形式或者任何其它适当的形式。例如,资源的类型可以包括诸如cpu、gpu、spark、内存等等的可用于应用模型训练和利用的物理资源或虚拟资源。作为一个示例,判断资源配置是否得到满足可以包括判断所要分配的资源是否是资源池中当前空闲的,并且当该资源是空闲的,则可判断该资源配置得到满足。作为示例,当资源配置指示需
要n个cpu,或者需要第n号cpu,而在资源池中有n个cpu是空闲的,或者第n号cpu是空闲的,则可认为所要分配的资源是可用的。
55.根据一个实施例,所述应用配置还可以包括模型配置,因此指示应用配置的信息可以指示执行所述至少一次ai注智过程所采用的模型,并且在所请求的模型可用的情况下,可以将该模型加载到分配给所述至少一次ai注智过程的资源中,以供在后续操作中,所述至少一次ai注智过程能够固定地使用所加载的模型和资源来执行。这里所提及的资源可与上述应用资源相同或不同,并且一般指的是存储资源,例如内存。
56.该指示模型配置的信息可被以各种方式提供。作为示例,该指示模型配置的信息可以至少包括模型的类型(例如用于人脸识别的模型、用于携号转网的模型等等),模型的id等等。作为另一示例,在模型id与模型类型对应的情况下可以仅包含模型id,从而可从模型id直接得出模型类型。作为一个示例,确定模型是否可用包括对模型进行核查,例如在模型库中检索到该模型并且该模型的状态稳定的情况下认为该模型是有效的且是可用的。该模型的状态稳定可指的是该模型已经是最新的,不需要进行优化也不需要更新。当然,模型的有效性还可以用本领域已知的其它指标来指示,这里将不再详细描述。
57.根据另一个的实施例,附加地或者可替代地,该配置请求可以至少包括指示ai注智过程的应用场景的信息。作为示例,该信息可以包括应用场景名称、应用场景id、应用场景参数等等中的至少一者。根据一个实施例,应用场景可以预先与用于ai注智过程的资源配置相关联。例如,某一应用场景对应于特定的资源配置。因此,在配置请求中指示了应用场景的情况下,ai平台可以识别到相应的资源需求并据此进行资源分配,应指出在此情况下,应用场景的信息可用作指示资源配置的信息,因而可以省去上文所述的指示资源配置的信息。根据另一个实施例,应用场景可以预先与特定的模型配置相关联。例如,应用场景可对应于特定的模型。因此,在配置请求中指示了应用场景的情况下,ai平台可以识别到相应的模型需求并据此进行模型分配(例如,核查、绑定等)。应指出,在此情况下,应用场景的信息可被用作指示模型配置的信息,而可以省去上文所述指示模型配置的信息。
58.根据实施例,相同应用配置可以指的是ai注智过程执行中所需要的配置相同,例如相同的资源配置、相同的模型配置等等。作为示例,具有相同应用配置的至少一次ai注智过程可指的是对于相同应用场景在同一环节执行的ai注智过程,例如人脸识别模型训练过程、人脸识别模型利用过程(即为人脸识别过程,对应于前述人脸识别预测过程)、携号转网模型训练过程、携号转网模型利用过程(对应于前述携号转网预测过程)等等。但是,应指出,具有相同应用配置的至少一次ai注智过程也可以对应于不同的应用场景或者相同应用场景中的不同环节中的至少一者,只要这些ai注智过程执行时所需要的资源和/或模型配置相同即可。
59.应指出,上述应用端与ai平台之间的应用配置请求的传输可以是在所述至少一次ai注智过程开始之前进行的。因此,在可满足所请求的配置的情况下,将该配置分配给至少一次ai注智过程以供每次ai注智过程固定地使用该配置。例如,所请求的资源可固定地用于针对应用模型训练的至少一次ai注智过程,所请求的资源和模型可固定地用于针对应用模型利用/预测的至少一次ai注智过程。
60.根据一个实施例,ai平台可以向应用端反馈针对应用配置请求的配置结果。作为示例,该配置结果可以包含在ai平台发送给应用端的应答信息中,该应答信息与前述配置
请求是相对应的。在此情况下,该配置请求和应答属于配置信令交互的一部分。根据实施例,该配置结果除了指示是否满足所请求的配置之外,还可以指示资源配置信息。根据一个实施例,所述处理电路进一步配置为在所请求的应用配置满足的情况下,向应用端反馈回包含指示所请求的应用配置满足的信息,这样应用端在接收到该信息之后,能够请求进行所述至少一次ai注智过程,而无需对于每一次ai注智过程再提出配置请求。根据另一实施例,如果应用端在特定时间段内未收到ai平台的针对应用配置请求的应答,则应用端将重复发送配置请求到ai平台,直到收到ai平台反馈的应用配置结果。
61.根据一个实施例,该处理电路进一步配置为在接收到来自应用端的执行所述至少一次ai注智过程的请求时,直接利用已分配给所述至少一次ai注智过程的应用配置来执行所述至少一次ai注智过程。并且将执行结果反馈回应用端。应指出,该请求中不再包含关于应用配置(诸如资源配置、模型配置等)的请求。例如,在针对至少一次人脸识别过程的资源和模型配置已经分配好之后,应用端向ai平台发送至少一次人脸识别过程的请求,而ai平台可以直接应用所分配的资源以及加载到资源中的模型来进行人脸识别。
62.根据一个实施例,该处理电路进一步配置为接收到来自应用端的针对所述至少一个ai注智过程的应用资源释放请求,释放用于所述至少一个ai注智过程的资源,并且将释放结果作为应答信息告知应用端。由此,应用端可以与ai平台之间进行信令交互来释放当前所用的资源,从而资源可以空闲,以供后续应用操作来应用。
63.以下将参照图5来示例性地说明根据本公开的实施例的结合有资源控制信令交互的ai注智操作流程,其中图5示意性地示出了ai注智操作中的人脸识别过程。这里,资源控制信令是前述的配置信令的示例,并且是用于人脸识别的注智过程的资源分配信令。该资源控制信令包括人脸识别资源激活信令和人脸识别资源释放信令,并且每个信令都包含了请求和应答过程。
64.在图5中,“a-1”对应于在人脸识别预测信令交互之前的资源激活信令交互,其请求在人脸识别之前进行资源的分配/激活,这样“人脸识别预测”模型可被加载到所需要的资源中并且与该资源绑定;从而在进行后续的人脸识别预测过程中可以直接利用所绑定的资源和模型进行计算,而无需对每个过程进行模型核查、加载,从而减少了冗余操作。a-1资源激活信令交互包括人脸识别资源激活请求和人脸识别资源激活应答。
65.此外,“a-2”对应于人脸识别资源释放信令交互,包括人脸识别资源释放请求和人脸识别资源释放应答。在不再需要人脸识别预测时,“人脸识别预测”模型与所对应资源解除绑定,将资源放回资源池,以供其它需求调用。
66.以下将参考图6以人脸识别预测环节为例详细描述根据本公开的实施例的ai注智配置和操作流程。
67.首先,进行a-1过程,在应用端与ai平台之间进行“人脸识别资源激活信令”交互,其中应用端向ai平台发起人脸识别资源激活请求,该请求中包含ai模型信息和ai资源配置信息,ai平台接收到该请求,基于ai资源配置信息来获取资源,根据ai模型信息对模型进行核查和加载,并且将模型和资源进行绑定。然后,ai平台向应用端发送应答(“人脸识别资源激活应答”)。在此示例中,应答中包括指示模型和资源均为可用的信息。这里,ai模型信息和ai资源配置信息可分别为上文所述的指示模型配置的信息和指示资源配置的信息的示例,以下将对它们进行更详细的示例性说明。
68.接下来,在应用端与ai平台之间进行“人脸识别预测信令”交互,以藉由ai平台实现人脸识别(作为一种示例性的应用)。其中执行n次人脸识别,用b-1,b-2,

,b-n指示,n为大于等于1的整数,每次人脸识别中的操作是基本相同的。
69.首先,根据接收到的指示模型和资源均为可用的应答,应用端发起人脸识别请求。ai平台接收到该请求并直接采用绑定的资源和模型来执行人脸识别操作。ai平台使用人脸识别应答将人脸识别预测结果告知应用端,该人脸识别预测结果包括识别结果以及可能的状态信息。由此,第一次人脸识别预测信令交互完成,即执行了第一次人脸识别。应用端接收到识别预测结果后对其进行解析,如果结果无异常则将以上文所述的方式执行下一次人脸识别预测信令交互,例如b-2。另一方面,如果应用端解析结果发现异常,则转到“状态诊断过程”(未示出),其中基于异常信息来诊断问题并且恢复故障,并且可以在故障恢复之后再次请求预测信令交互。
70.由此,依次执行n次人脸识别预测信令交互,直到完成人脸识别(例如,执行完第n次人脸识别预测信令交互b-n)。之后,执行a-2释放过程,在应用端与ai平台之间进行“人脸识别资源释放信令”交互,其中应用端向ai平台发起人脸识别资源释放请求,ai平台接收到该请求并且将“人脸识别预测”模型与所对应资源解除绑定,将资源放回资源池,以供其它需求调用,然后通过人脸识别资源释放应答来将释放结果告知应用端。
71.由上可见,通过添加“a-1”配置控制过程来对于后续的人脸识别操作进行初步(primary)配置分配/设定,例如根据ai模型信息和ai资源配置信息对于人脸识别过程进行模型和资源的绑定,从而在用于至少一次人脸识别预测操作的ai模型信息和ai资源配置信息均保持不变的情况下,应用系统可直接向ai平台发送操作请求以对于每次人脸识别预测发起ai注智,而不再发送任何配置激活请求,并且ai平台不再进行核查和加载操作,而是直接执行计算环节,完成模型的训练或预测。应指出,上述的a-1配置过程以及a-2释放过程可以同样地应用其它类型的应用,诸如携号转网应用等等,并且对于具有相同配置需求的两次或两次以上应用是尤其有利的。
72.因此,提出了基于配置信令传输的ai配置过程,其中在具有相同应用配置的至少一次ai注智过程执行开始之前从应用端向ai平台发送配置请求,从而可以在至少一次ai注智过程执行之前提前设定/分派所述至少一次ai注智过程所需的配置,并且在每一ai注智过程中可以固定地使用该配置,省去了现有技术中对于每一次ai注智过程都需要进行的冗余操作,诸如冗余的模型核查和加载等操作,解决了现有ai平台注智过程中计算开销、资源分配及链路感知问题,从而提高ai注智资源效率。
73.应指出,前文结合信令交互过程来描述了根据本公开的应用配置过程。但是这仅是示例性的,根据本公开的实施例还可以结合单向信令传输来实现。
74.前文提及了ai平台通过应答将配置结果反馈给应用端,但是这并不是必需的。根据一个实施例,ai平台可以不关于配置状况进行任何应答。在来自应用端的配置请求得到满足的情况下,ai平台绑定所请求的应用配置,诸如模型和资源,并且暂存所满足的配置请求的信息,直到该资源被释放。应用端在后续的每次应用操作中都发送配置请求,而ai平台可以在接收到应用端的配置请求之后,验证配置请求中的配置信息是否与先前暂存的配置请求中的配置信息一致,如果一致,则直接利用已经绑定的应用配置,诸如模型和资源,进行处理,而还可以省去与核查和加载有关的操作。这样也可以在一定程度上节省工作开销,
提高了效率。而如果不一致,则ai平台可以释放资源,然后基于新的应用配置信息进行配置分派。
75.前文提及了由应用端发起资源释放信令交互,但是这并不是必需的。根据一个实施例,在特定时间间隔(可被称为第一时间间隔)内未从应用端接收到任何应用操作请求的情况下,ai平台可以主动进行资源释放,并且将释放结果告知应用端。根据另一实施例,在特定时间间隔内未从应用端接收到任何应用操作请求的情况下,ai平台可以向应用端发送询问信息,以询问后续进行何种操作,例如继续进行类似应用操作、执行新操作、或者释放资源以等待后续请求,并且在接收到来自应用端的反馈时,根据随后从应用端接收到的反馈消息执行对应的操作。进一步地,如果在发送询问信息之后在第二特定时间间隔内未接收到反馈消息,则可以主动进行资源释放,并且将释放结果告知应用端。第一时间间隔和第二时间间隔可被以多种方式设定,并且可以彼此相等或者不同。这样可以在某种程度上有助于资源高效利用。例如,如果由于通信故障导致无法接收到信息,可以暂时释放资源以供其它应用过程使用,而不至于资源长期被占用。应指出,上述操作均可由ai平台侧的电子设备的处理电路来执行。
76.动态资源分配
77.在现有技术中,一旦资源最初被人为设定好之后,除非被人为改变,否则会基本保持固定,这样,如果应用端的资源请求得不到满足,则应用端只能一直等待,直到资源池中的可用资源正好满足应用端的资源请求中的需求,这样会导致资源空置,造成资源浪费。根据本公开,提出了动态资源分配机制,其可以借助于应用端与ai平台之间的配置信令传输实现资源的动态分配,在由应用端发送的配置信息所指示的资源不可用的情况下尤其有效。
78.根据一个实施例,可以通过应用端与ai平台之间的配置信令交互来实现资源动态分配。特别地,在由应用端发送的配置请求中的配置信息所指示的资源不可用的情况下,ai平台可以将指示资源池中当前可用资源的信息反馈给应用端,从而应用端可以动态地调整其资源配置。特别地,应用端可以根据反馈信息来决定是继续等待资源池中的资源直至可满足配置请求,还是调整其资源配置(诸如资源类型、资源数量、资源编号等等)以尝试利用资源池中的可用资源。这样可以实现资源的动态配置。作为示例,该反馈信息可以被包含在资源激活应答中被发送给应用端。这样,能够在一定程度上实现ai资源的动态分配,提高了资源的利用效率。
79.根据另一实施例,也可在应用端与ai平台之间进行单向配置信令传输的情况下实现资源动态配置。特别地,ai平台可以基于来自应用端的资源分配请求中所包含的与资源配置调整有关的特定信息来实现资源的动态配置。
80.根据一个实施例,与资源配置调整有关的特定信息可以包括资源调整策略信息,并且该处理电路被配置为在资源配置请求中所指示的资源配置不可用的情况下,根据资源配置信息中的资源调整策略信息来进行经调整的资源配置。这里,被确定为不可用的资源配置可被称为初步资源配置,其可指的是初始设定的资源配置,或者应用端设定的实现性能最优的资源配置,以及其它配置。
81.根据一个实施例,资源调整策略信息可指示用于调整资源的至少一种策略/方式,诸如策略/方式名称、id等,其由可彼此区分开的字符、代码、或数值等等中的任一种表示。
作为一个示例,策略/方式可具有相应的候选资源配置,该候选资源配置可被以与前述资源配置相同的方式来表示,例如ai注智过程执行所需的候选资源类型、候选资源数量、候选资源编号,并且在此情况下,附加地或者可替代地,资源调整策略信息也可以直接指示候选资源配置。作为还另一示例,资源调整策略信息还可以被设定为与不进行动态资源调整相对应的默认值或者不被设定,以指示不进行资源调整。因此,ai平台可以根据资源调整策略信息的设定状况来执行相应的与资源调整有关的操作。
82.根据一种实现,资源调整策略信息可被设定为指示一种资源调整策略/方式,从而在确认了不满足初步资源配置需求的情况下,ai平台继续判断是否可满足与该资源调整策略/方式对应的候选资源配置,例如候选资源配置中所指示的资源类型、资源数量、资源编号是否可用。如果确定满足候选资源配置,则将候选资源配置中所指示的资源分配给ai注智过程,并将分配结果告知应用端。如果不可用,则可以向应用端告知候选配置不可用,或者告知资源池中的当前可用资源,从而应用端可确定是等待还是调整,如上文所述。特别地,作为示例,一种策略/方式可以对应于直接利用当前资源池中的所有可用资源,这也属于一种特殊的候选资源配置,并且对于此策略/方式,如果在资源池中有可用资源,ai平台可以直接分配资源池中的所有可用资源,并将成功分配结果告知应用端。
83.根据另一种实现,资源调整策略信息可被设定为指示多于一种的资源调整策略/方式,从而在此情况下,资源配置请求中可隐含地包括初步资源配置、和与所设定的资源调整策略/方式相对应的多于一种的候选资源配置。当确认了不满足初步配置资源需求时,ai平台继续判断多于一种的候选资源配置中的任一种是否被满足。ai平台可以按多种方式来执行判断。作为一个示例,多于一种的资源调整策略/方式可以按照其导致的ai注智过程性能从高至低的顺序来排序,并且ai平台可以按此顺序来进行判断,例如,导致的性能越高,对应的候选资源判断被越早判断。作为另一示例,资源调整策略/方式可以按照所需要的资源数量(例如,总资源数量、特定类型资源的数量等等)降序地排序,并且ai平台可以按此顺序来进行判断。如果确定候选资源配置可用,则将候选资源配置中所指示的资源分配给ai注智过程并将分配结果告知应用端。如果所有候选资源配置不可用,则可以向应用端告知候选配置不可用,或者告知资源池中的当前可用资源,从而应用端可判断是等待还是进一步调整,如上文所述。这样,可以进一步地适当提高资源利用效率,并且可实现执行性能与资源利用效率之间的有效折中。
84.根据一个实施例,与资源配置调整有关的特定信息还可以包括资源调整允许信息,资源调整允许信息可被设定为特定值来指示是否允许资源调整。作为示例,该资源调整允许信息可用二进制值表示,其中1指示为真,即允许资源调整,而0指示为假,即不允许资源调整,反之亦然。此外,资源调整允许信息还可被以其它方式来表示,例如,十进制或者其他进制的数值、不同的字符等等,只要能够区分开允许和不允许资源调整即可。因此,在此情况下,仅在资源调整允许信息被设定为允许资源调整的情况下才进行资源调整。在一种实现中,只有当资源调整允许信息被设定为允许的情况下才可以设定资源调整策略信息。
85.根据另一实施例,资源分配请求可以包括优先级参数,其指示ai注智过程或者对于其发出请求的应用的优先级,并且ai平台还可以根据优先级参数来确定资源分配,甚至调整资源分配。在一定程度上,优先级参数也可属于与资源分配调整有关的特定信息。特别地,在存在多于一个的且具有不同资源配置需求的ai注智过程的情况下,ai平台可以按照
优先级降序依次执行资源分配。例如,ai平台首先对于具有最高优先级的应用执行资源分配,也就是说,首先确定是否满足该应用的资源需求。在无法满足高优先级应用的资源需求之后再考虑低优先级应用。
86.根据一个实施例,在同时接收到至少两个应用资源激活请求的时候,ai平台可以按照优先级降序对于应用进行资源分配,从而可以适当提高资源的利用效率,并且可在一定程度上提高应用性能。作为一个示例,首先为高优先级应用分配资源,然后在高优先级应用未被满足的情况下为低优先级应用分配资源,从而能够提高应用的执行效率和资源的利用效率。应指出,这里的满足高优先级应用可指的是满足高优先级应用的主要资源需求,或者可以是指的是如前所述地满足进行资源调整之后的资源需求。作为另一示例,在高优先级应用的资源需求无法得到满足的情况下,才考虑低优先级应用的资源需求。
87.根据另一实施例,当在当前一组一个或多个应用操作(ai注智过程)正在执行的情况下接收到对于另一组一个或多个应用操作的配置请求时,可以确定对于另一组应用操作的配置请求中所指示的优先级是否高于先前应用的优先级,并且如果对于另一组应用操作的配置请求中所指示的优先级高于先前应用的优先级,优先为该另一组应用操作分配资源。作为示例,即使当前一组应用操作没有完成,仍暂时释放它们的对应资源,并且为具有更高优先级的另一个组应用操作分配资源。在具有更高优先级的另一组应用操作完成之后,再根据用于当前一组应用操作的配置进行资源分配,继续执行剩余的应用操作。作为另一示例,当暂时释放资源时,可以将暂时释放信息告知应用端。根据另一实施例,在当前一组应用操作(ai注智过程)正在执行的情况下接收到对于另外一组或多组的一个或多个应用操作的配置请求时,可以建立应用操作队列,其中配置请求可按照时间顺序排序,或者根据优先级排序,并且在当前一组应用操作完成之后,可以按照排序顺序执行各个配置请求和对应的后续应用操作。
88.以下将结合图7来描述根据本公开的实施例的ai资源的动态配置的示例。图7以模型预测为例示出了不同应用场景同时请求同一资源池时的动态配置,其中人脸识别和nlp(自然语言处理)同时请求资源池中的cpu资源(cpu数量设为6)。这里,资源激活请求可对应于前述的应用配置请求,并且与资源配置调整有关的特定信息被设定为最小配置策略,在一个示例中,其可对应于ai注智过程执行所需的最小资源需求,并且被包含在资源激活请求中的ai资源配置信息中。在另一示例中,最小配置策略可指的是所有剩余资源不管其数量如何都可被使用。因此,在资源需要共享时,可以根据激活请求信息的ai资源配置信息进行动态分配,从而实现动态资源分配。
89.在操作中,首先,通过应用端与ai平台之间的配置信令传输来针对人脸识别应用场景发起资源分配请求。应用端向ai平台发送资源激活请求,如图中“c-1”,其中请求cpu资源,数量为4,采用最小配置策略。ai平台接收到该请求并且给出成功应答,指示已经为人脸识别分配了4个cpu。此时,资源池里剩余2个cpu。然后,应用端向ai平台发送针对nlp应用场景的资源分配请求,如图中“c-2”,其中请求cpu资源,数量为4,采用最小配置策略,ai平台接收到该请求,然后进行资源分配。具体而言,虽然这时资源池里cpu资源的数量小于4,但根据最小配置策略,在2个cpu可满足最小资源需求的情况下仍给出成功应答,表示分配了2个cpu;至此,资源池里cpu资源被动态地配置。
90.以上仅是示例性的。例如,如果没有设定与资源配置调整有关的特定信息,或者仍
无法满足最小资源需求,则ai平台可以将资源池的当前状态告知应用端。例如,在上述示例中,可以将当前资源池中仅剩余两个cpu可用的状况告知应用端,这样应用端可以确定是采用最小配置策略,还是采用所有剩余资源不管其数量如何都可被使用的分配策略,还是等待直到4个cpu可用。
91.应指出,这里的先执行人脸识别然后执行nlp的顺序是示例性的,而其它执行方式也是可行的。特别地,多个ai注智过程的执行顺序可以依赖于ai注智过程的类型、它们之间的因果关系、优先级等等。
92.对比传统的注智过程和本技术的信令交互,可以明显的看到,现有技术过程中cpu/gpu资源都是由人工基于经验判断进行预先配置的,属于“静态”规则。相反,本技术的信令交互是“动态”规则,可以由系统根据需求动态地分配资源,从而实现了系统资源的高效利用,并且有助于系统操作流畅地执行。
93.状态监控
94.状态监控是用于评估应用系统是否稳定的手段。状态监控信息的详细程度不仅影响问题定位,也影响应用端或者系统的第三方的后续动作决策。此外,状态监控信息的表达方法也影响了系统进行状态监控和处理的效率。根据本公开的实施例,提出了改进的状态监控信息,并且设计了状态监控的度量框架,以提高状态诊断流程中的自动化,从而降低了人工参与成本,提高了注智过程的效率。根据本公开的实施例,状态监控信息可特别包含被代码化的与发生异常状态时的ai注智状况有关的信息,该ai注智状况可包含异常类型、异常发生的应用场景、异常发生的操作环节等中的至少一个。根据另一实施例,状态监控信息还可以包括指示要执行的后续操作的信息。因此,在发生异常状态时可以快速定位问题,准确排除故障,使资源分配过程更加高效。
95.以下将示例性地描述根据本公开的状态监控的实现。本公开设计了一套二进制状态度量框架(binary state metrics framework,bsmf),采用“二进制位”的方式度量不同监控对象,降低单次通信的字节长度,提升网络传输效率。引入状态监控字段弥补了传统状态机制中缺少指示标志,一定程度上降低了人工参与成本,进一步提高自动处理性能。当然,应指出此二进制代码仅是示例性的,并且各种监控字段也可被以其它方式来提供,例如十进制代码、符号、字符串等等。也就是说,本公开将各种监控字段编排格式,使得能够利用不同的代码来区分出不同的监控状态,从而可以借助于机器自动识别不同的监控状态。
96.作为一个示例,本公开将32位/比特无符号整型状态监控信息至少拆分为:类型码、预留码、业务码、里程碑、控制码、状态码。下表示出了示例性的状态度量框架。
97.表1:状态度量框架
[0098][0099]
如上表所示,状态度量框架的基本说明为:
[0100]
类型码:4比特(bit),最大16比特,用于定义状态类别。如:权限类、参数类、资源类等。在资源控制环节,本类型就固定为资源类;
[0101]
预留码:3比特,最大8比特,用于系统扩展。默认:000;
[0102]
业务码:6比特,最大64比特,用于定义应用场景框架。如:分类、聚类、图像分析等;
[0103]
里程碑:5比特,最大32比特,用于定义逻辑流程。如:数据提取、预处理、训练等;
[0104]
控制码:4比特,最大16比特,用于定义状态指示标志。如:核查、重传、等待等;
[0105]
状态码:10比特,最大1024比特,用于定义异常状态。如:密码错误、资源繁忙等;
[0106]
上述的类型码、业务码、里程碑可以是上述的ai注智状况有关的信息的示例,其旨在能够清楚直观地指示异常类型、异常发生的场景、过程阶段等等,控制码可以指示后续要执行的操作。应指出,ai注智状况有关的信息还可以采用其它方式来表示,只要能够有助于在异常发生时快速且准确地定位异常以及另外清楚地指示要执行的操作即可。以下将描述资源类状态监控反馈信息的示例。
[0107]
表2:资源类状态监控反馈信息示例
[0108][0109]
其中,该表中的“定义”行示出了各个字段可能的取值以及相应的含义,而“例子”行给出了由字段取值组合得到的资源类状态监控反馈信息的二进制码例子,“十进制”列给出了分别与各个例子的二进制码相对应的十进制值,“描述”列给出了各个二进制码例子所指示的异常状态信息。
[0110]
在一个例子中,在异常发生时,类型字段(4比特(bit))被设为0011,其指示状态为资源类;预留码字段(3bit)被设为000;业务字段(6bit)被取值为000101,其指示应用场景为图像识别;里程碑字段(5bit)被设为00011,其指示逻辑过程为训练过程;控制字段(4bit)被设为0001,其指示应用端进行核查;状态字段(10bit)被设为0000001000,其指示
异常状态为参数类型异常。对于此示例,由系统、尤其是ai平台侧自动生成二进制码为00110000001010001100010000001000,对应的十进制数字为:807977992。该码描述了系统资源类的、在图片识别场景下、在训练过程中、参数类型的异常,并且指示客户端执行核查操作。由上可见,通过识别指示异常状态的代码化信息,能够快速准确地判断异常的类型、发生场景、操作环节等等,并且还可以根据信息执行相应的后续操作,从而可实现问题的快速定位,故障的准确排除,使ai资源配置过程以及ai注智过程更加高效。
[0111]
根据本公开的实施例,状态监控信息由ai平台侧提供给应用端或者第三方,以用于诊断应用系统状态。第三方例如可指的是能够检测/诊断应用系统状态的设备。根据本公开的实施例,通过在由ai平台发送给应用端的应答信息中增加状态监控信息来进一步优化对于应答信息的处理。状态监控信息可以被包括在ai平台向应用端发送的各种应答信息中,例如资源激活应答信息、预测识别应答信息、资源释放应答信息等中。
[0112]
以下将参照图8描述根据本公开的在资源配置信令交互中应用状态监控信息的示例。在操作过程中,首先应用端发起资源激活请求或者资源释放请求,ai平台对于该请求作出应答,应答至少包括状态监控信息以及反馈资源状态执行效果。如图中“d”所指示的;然后,应用端接收到应答并且解析结果和状态,如无异常则再次请求。如果有异常,系统将基于状态监控信息自动执行故障识别,获取后续操作策略,进行故障恢复并再次发起请求,从而降低人工参与频率。
[0113]
应指出,状态监控信息还可被包含在ai平台向应用端反馈的其它应答信息中。根据另一实施例,状态监控信息的发送可以由ai平台侧响应于应用系统状态的变化被触发。作为示例,一旦发生状态变化,则指示该状态变化的状态监控信息可由ai平台侧发送给应用端或第三方。
[0114]
由上可见,通过设计状态监控度量框架来构建状态监控信息,应用端可以基于所述状态监控信息对异常进行快速定位和排除,使资源分配过程更高效。
[0115]
在电子设备的结构示例中,处理电路420可以是通用处理器的形式,也可以是专用处理器,例如asic。例如,处理电路120能够由电路(硬件)或中央处理设备(诸如,中央处理单元(cpu))构造。此外,处理电路420可以承载用于使电路(硬件)或中央处理设备工作的程序(软件)。该程序能够存储在存储器(诸如,布置在存储器中)或从外面连接的外部存储介质中,以及经由网络(诸如,互联网)下载。
[0116]
根据本公开的实施例,处理电路420可以包括用于实现上述功能的各个单元,例如接收单元422,其接收来自应用侧电子设备的针对至少一次ai注智过程的配置请求,所述配置请求包括指示应用配置的信息;以及分派(assign)单元424,其在所述应用配置可用的情况下,分派所述应用配置以供所述至少一次ai注智过程运行时使用。优选地,所述处理电路420还可包括反馈单元426,其在所请求的应用配置被满足的情况下,向应用侧电子设备反馈回指示所请求的应用配置被满足的信息,使得应用侧电子设备能够请求ai侧电子设备执行所述至少一次ai注智过程,而不再提出配置请求。
[0117]
优选地,所述接收单元422还可接收来自应用侧电子设备的执行所述至少一次ai注智过程的请求,并且通过直接利用被分派给所述至少一次ai注智过程的应用配置来执行所述至少一次ai注智过程。优选地,所述接收单元422还可接收来自应用侧电子设备的资源释放请求。
[0118]
优选地,所述配置单元424还可根据所述配置请求中的与资源配置调整有关的特定信息来执行对于所述至少一次ai注智过程的资源分配。优选地,所述分派单元424还可在配置请求中所指示的资源配置不能满足的情况下,根据与资源调整策略信息对应的候选资源配置来为所述至少一次ai注智过程分配资源。优选地,所述分派单元424还可根据优先级信息来执行ai注智过程的资源分派。优选地,所述配置单元424可以释放针对所述至少一次ai注智过程分配的资源。
[0119]
优选地,所述反馈单元426还可在所请求的应用配置中所包括的资源配置不能满足的情况下,提供关于资源池中的当前可用资源的信息给应用侧电子设备,使得应用侧电子设备能够进行资源配置调整。优选地,所述反馈单元426还可在从ai平台侧电子设备提供的应答信息中提供状态监控信息,所述状态监控信息包含被代码化的与发生异常时的ai注智状况有关的信息。ai注智状况可包含异常类型、异常发生的应用场景、异常发生的操作环节等中的至少一个。优选地,所述反馈单元426可将释放结果经由应答信息告知应用侧电子设备。每个单元的操作可以进行如上文所述地进行,这里将不再详细描述。在附图中单元用虚线绘出,旨在说明该单元并不一定被包含在处理电路中。作为示例,该单元可以在ai平台侧电子设备中而处理电路之外,甚至可以位于ai平台侧电子设备400之外。需要注意的是,尽管图4a中将各个单元示为分立的单元,但是这些单元中的一个或多个也可以合并为一个单元,或者拆分为多个单元。
[0120]
应注意,上述各个单元仅是根据其所实现的具体功能划分的逻辑模块,而不是用于限制具体的实现方式,例如可以以软件、硬件或者软硬件结合的方式来实现。在实际实现时,上述各个单元可被实现为独立的物理实体,或者也可由单个实体(例如,处理器(cpu或dsp等)、集成电路等)来实现。此外,上述各个单元在附图中用虚线示出指示这些单元可以并不实际存在,而它们所实现的操作/功能可由处理电路本身来实现。
[0121]
应理解,图4a仅仅是ai平台侧电子设备的概略性结构配置,ai平台侧电子设备400还可以包括其他可能的部件(例如,存储器等)。可选地,ai平台侧电子设备400还可以包括未示出的其它部件,诸如存储器、射频链路、基带处理单元、网络接口、控制器等。处理电路可以与存储器和/或天线相关联。例如,处理电路可以直接或间接(例如,中间可能连接有其它部件)连接到存储器,以进行数据的存取。还例如,处理电路可以直接或间接连接到天线,以经由通信单元发送信号以及经由通信单元接收无线电信号。
[0122]
存储器可以存储由处理电路420产生的各种信息(例如,数据业务相关信息,配置资源信息等)、用于ai平台侧电子设备操作的程序和数据、将由ai平台侧电子设备发送的数据等。存储器还可以位于ai平台侧电子设备内但在处理电路之外,或者甚至位于ai平台侧电子设备之外。存储器可以是易失性存储器和/或非易失性存储器。例如,存储器可以包括但不限于随机存储存储器(ram)、动态随机存储存储器(dram)、静态随机存取存储器(sram)、只读存储器(rom)、闪存存储器。
[0123]
图4b示出了根据本公开的示例性实施例的ai平台侧方法的流程图。该方法包括接收步骤402,其接收来自应用侧电子设备的针对至少一次ai注智过程的配置请求,所述配置请求包括指示应用配置的信息;以及分派步骤404,其在所述应用配置可用的情况下,分派所述应用配置以供所述至少一次ai注智过程运行时使用。优选地,所述方法还可包括反馈步骤406,其在所请求的应用配置被满足的情况下,向应用侧电子设备反馈回指示所请求的
应用配置被满足的信息,使得应用侧电子设备能够请求ai侧电子设备执行所述至少一次ai注智过程,而不再提出配置请求。应指出,反馈步骤用虚线绘出,旨在说明该反馈步骤并不必须被包含在该方法中。
[0124]
应指出,根据本公开的方法还可包括与上述ai平台侧电子设备的处理电路所执行的操作相对应的操作步骤,这里将不再详细描述。应指出,根据本公开的方法的各个操作可以由上述ai平台侧电子设备来执行、尤其由ai平台侧电子设备的处理电路或者相应的处理单元来执行,这里将不再详细描述。
[0125]
以下将参照图9a和图9b来描述根据本公开的示例性实施例的应用侧,其中图9a示出了根据本公开的示例性实施例的应用侧电子设备的框图。应用侧电子设备900可以包括处理电路920,该处理电路920可以被配置为向ai平台侧电子设备发送针对所述至少一次ai注智过程的配置请求,所述配置请求包括指示该应用配置的信息;接收到来自ai平台侧电子设备的指示所述应用配置被满足的应答信息,并且向ai平台侧电子设备发送执行所述至少一次ai注智过程的操作请求,而不再提出任何其它配置请求。
[0126]
优选地,所述处理电路920还可被配置为接收来自ai平台侧电子设备的指示所述应用配置中包含的资源配置不能满足的信息以及指示资源池中的当前可用资源的信息,进行资源配置调整,并且将调整后的资源配置经由配置请求发送给ai平台侧电子设备。
[0127]
优选地,所述处理电路920还可被配置为接收来自ai平台侧电子设备的状态监控信息,所述状态监控信息包含被代码化的与发生异常状态时的ai注智状况有关的信息,所述ai注智状况可包含异常类型、异常发生的应用场景、异常发生的操作环节等中的至少一个,并且分析所述状态监控信息以便进行异常状态的识别和恢复。
[0128]
优选地,所述处理电路920还可被配置为向ai平台侧电子设备发送资源释放请求,并且接收来自ai平台侧电子设备的释放结果。
[0129]
应指出,上述处理电路920所实现的过程/操作中的各种请求、信息等等的含义都与前文所述相同,这里将不再详细描述。此外,电子设备900和处理电路920可被以与前述的电子设备400和处理电路420相类似的实现方式来实现,例如处理器、单元、程序模块等等。作为示例,处理电路920可以包括接收单元922、发送单元924、配置单元926,这些单元可分别实现前述的接收操作、发送操作、资源配置/调整操作等的功能,这里将不再详细描述。此外,与处理电路420相类似的,处理电路920也可包含前述的附加组件。这里将不再详细描述。
[0130]
图9b示出了根据本公开的示例性实施例的应用侧方法的流程图。所述方法包括第一发送步骤904,向ai平台侧电子设备发送针对所述至少一次ai注智过程的配置请求,所述配置请求包括指示该应用配置的信息;接收步骤906,接收到来自ai平台侧电子设备的指示所述应用配置被满足的应答信息,以及第二发送步骤908,向ai平台侧电子设备发送执行所述至少一次ai注智过程的操作请求,而不再提出任何其它配置请求。
[0131]
应指出,根据本公开的方法还可包括与上述应用侧电子设备的处理电路所执行的操作相对应的操作步骤,这里将不再详细描述。应指出,根据本公开的方法的各个操作可以由上述应用侧电子设备来执行、尤其由应用侧电子设备的处理电路或者相应的处理单元来执行,这里将不再详细描述。
[0132]
以下将示例性地描述根据本公开的配置信令交互中可能使用的配置请求的示例
性设计。
[0133]
该配置请求中包含的指示资源配置的信息的一个示例可以是ai资源配置信息,其例如包括资源类型、资源数量、资源编号。此外,资源配置信息还可包括资源配置策略信息。示例性的ai资源配置信息如下:
[0134]
表3:ai资源配置信息参数示例
[0135]
参数名称是否必填参数类型参数说明resourcetype是string资源类型,最长32字节,cpu、gpu、fpga、spark
……
resourcelist是string资源列表,最长128字节,gpu编号或spark队列名resourceratio是short资源比率,0-1之间,默认全部resourcestrategy是string资源分配策略,最长128字节,如公平分配、最小分配
……………………
[0136]
由上所示,ai资源配置信息其至少包含资源类型(resourcetype)、列表(resourcelist)、比率(resourceratio)、配置策略(resourcepolicy)(如公平分配策略、最小配置策略)。尽管未示出,但是ai资源配置信息中还可包括候选资源配置,每一候选资源配置也可包括resourcetype和resourcelist,如上所述。应指出,资源比率可表示所请求的资源占资源列表中所列出的资源的比率。作为一个示例,如果资源比率小于1,则该资源比率可认为对应于一种候选资源配置。例如,如果resourcetype和resourcelist所列出的资源不可用,则可确定该资源比率所对应的资源是否可用。
[0137]
该配置请求中包含的指示模型配置的信息可以至少包含应用场景模型id、应用场景模型名称。该配置请求中还可包含指示应用场景的其它信息,诸如应用场景名称、子应用场景名称、应用场景参数。特别地,作为示例,如果如前所述地应用场景名称/应用场景id与资源配置、模型配置等相对应,配置请求可以仅包含应用场景名称/应用场景id,而可以从应用场景名称/应用场景id直接得出资源配置参数和模型配置参数,这样进一步节省了信令开销。
[0138]
因此,针对不同的ai注智过程可以提供相应的配置请求。例如针对ai训练注智过程的配置请求的一个示例是训练激活请求,其可以包括下表中的模型训练相关信息:
[0139]
表4:模型训练信息参数示例
[0140]
参数名称是否必填参数类型参数说明appframe是string应用场景名称,最长128字节,如人脸识别appsubframe是string子应用场景名称,最长128字节,如特征提取appparam是string应用场景请求参数,json格式appmodelname否string应用场景模型名称,最长128字节,如信部落人脸识别methodtype否short计算方式,1:在线资源;2:离线资源resourcetype是string资源类型,最长32字节,cpu、gpu、fpga、spark

resourcelist是string资源列表,最长128字节,gpu编号或spark队列名resourceratio是short资源比率,0-1之间,默认全部resourcestrategy是string资源分配策略,最长128字节,如公平分配、最小分配
[0141]
appmodelname可对应于前述的指示模型配置的信息,appframe,appsubframe,appparam可对应于前述的指示应用场景的信息。
[0142]
应指出,上表所给出的模型训练信息参数仅仅是示例性的,而并不需要包含全部
的参数。作为示例,上表中的参数也可被以其它方式来表示。例如,应用场景名称和子应用场景名称两者可以合并为一个名称参数,作为另一示例,应用场景名称与应用场景模型名称可以合并为包含这两者的信息的参数。
[0143]
例如,针对ai预测注智过程的配置请求的一个示例可以是预测激活请求,其可以包括下表中的模型预测信息:
[0144]
表5:模型预测信息的参数示例
[0145]
参数名称是否必填参数类型参数说明appmodelname是string应用场景模型名称,最长128字节,如信部落人脸识别appmodelid是string应用场景模型id,最长64字节methodtype否short计算方式,1:在线资源;2:离线资源resourcetype是string资源类型,最长32字节,cpu、gpu、fpga、spark

resourcelist是string资源列表,最长128字节,gpu编号或spark队列名resourceratio是short资源比率,0-1之间,默认全部resourcestrategy是string资源分配策略,最长128字节,如公平分配、最小分配
[0146]
上表中所示的模型预测信息所包含的appmodelname和appmodelid可属于前述的指示模型配置的信息的示例。类似地,上表所给出的模型预测信息参数仅仅是示例性的,而并不需要包含全部的参数。作为示例,模型预测信息的参数可被以其它方式表示。例如,应用场景模型名称与应用场景模型id可以组合为包含这两者的信息的参数。
[0147]
根据本公开的针对配置请求的应答信息可以至少包括状态监控信息。以下示出了针对激活请求的应答信息的示例。
[0148]
表6:激活应答信息的参数示例
[0149]
参数名称是否必填参数类型参数说明processcode是uint反馈信息,参见状态度量框架定义resourceurl是string资源地址,许可存在多个功能地址resourceid是string资源id,最长32字节resourcetype是string资源类型,最长32字节,cpu、gpu、fpga、spark
……
resourcelist是string资源列表,最长128字节,gpu编号或spark队列名resourceratio是short资源比率,0-1之间,默认全部resourcepolicy是string资源配置策略,最长128字节,如公平分配、最小配置
……………………
[0150]
上表中的processcode可对应于前文所述的状态监控信息,其形式可以参见前文所述的状态度量框架定义。
[0151]
上表中还示出了ai资源配置信息。上表中的resourceurl和resourceid也是与ai资源配置相关的信息,但是应指出这些信息并不是必需的。特别地,如果当前资源池中的资源无法满足应用的配置需求,则可以通过ai资源配置信息来体现资源池中的可用资源,从而应用端可主动判定是否可以进行资源调整。在当前资源池中的资源可以满足配置需求时,无需包含ai资源配置信息,而可仅仅返回例如用特定字符、数字、代码等来表示的指示资源配置被满足的信息。
[0152]
根据本公开的资源释放信令可以包含释放请求信息和释放应答信息。释放请求信息至少包含资源id;释放应答信息至少包含状态监控信息。资源id和状态监控信息可如前
文所述,这里将不再详细描述。
[0153]
以下将示例性地描述根据本公开的用于ai注智过程的配置的信令交互流程。表7示出了用于ai模型注智过程的激活配置的信令交互流程,主要包括资源分配。
[0154]
表7:用于模型训练的资源激活流程
[0155][0156]
表8示出了用于ai模型注智过程的激活配置的信令交互流程,主要包括模型分配和资源分配。
[0157]
表8:用于模型预测的资源激活流程
[0158][0159]
表9示出了在配置请求中的应用配置得到满足的情况下的资源释放信令交互流程。
[0160]
表9:资源释放过程
[0161][0162]
在本公开中描述了ai注智过程中的人脸识别模型训练和预测的示例,但是应当理解,本公开的应用场景不限于此。本公开所提出的改进方案可应用于任何ai注智过程,尤其是诸如在模型训练环节、模型应用环节执行的具有相同配置的至少一个应用操作的过程,例如对象追踪、对象检测等等。
[0163]
应指出,上述描述仅仅是示例性的。本公开的实施例还可以任何其它适当的方式执行,仍可实现本公开的实施例所获得的有利效果。而且,本公开的实施例同样可应用于其它类似的应用实例,仍可实现本公开的实施例所获得的有利效果。应当理解,根据本公开实施例的机器可读存储介质或程序产品中的机器可执行指令可以被配置为执行与上述设备和方法实施例相应的操作。当参考上述设备和方法实施例时,机器可读存储介质或程序产品的实施例对于本领域技术人员而言是明晰的,因此不再重复描述。用于承载或包括上述机器可执行指令的机器可读存储介质和程序产品也落在本公开的范围内。这样的存储介质可以包括但不限于软盘、光盘、磁光盘、存储卡、存储棒等等。
[0164]
另外,应当理解,上述系列处理和设备也可以通过软件和/或固件实现。在通过软件和/或固件实现的情况下,在相关设备的存储介质存储构成相应软件的相应程序,当所述程序被执行时,能够执行各种功能。作为示例,从存储介质或网络向具有专用硬件结构的计算机,例如图10所示的通用计算机1300安装构成该软件的程序,该计算机在安装有各种程序时,能够执行各种功能等等。图10是示出根据本公开的实施例的中可采用的信息处理设备的计算机的示例结构的框图。在一个例子中,该计算机可以对应于根据本公开的上述示例性ai平台侧电子设备或应用侧电子设备。
[0165]
在图10中,中央处理单元(cpu)1301根据只读存储器(rom)1302中存储的程序或从存储部分1308加载到随机存取存储器(ram)1303的程序执行各种处理。在ram 1303中,也根据需要存储当cpu 1301执行各种处理等时所需的数据。
[0166]
cpu 1301、rom 1302和ram 1303经由总线1304彼此连接。输入/输出接口1305也连接到总线1304。
[0167]
下述部件连接到输入/输出接口1305:输入部分1306,包括键盘、鼠标等;输出部分1307,包括显示器,比如阴极射线管(crt)、液晶显示器(lcd)等,和扬声器等;存储部分1308,包括硬盘等;和通信部分1309,包括网络接口卡比如lan卡、调制解调器等。通信部分1309经由网络比如因特网执行通信处理。
[0168]
根据需要,驱动器1310也连接到输入/输出接口1305。可拆卸介质1311比如磁盘、
光盘、磁光盘、半导体存储器等等根据需要被安装在驱动器1310上,使得从中读出的计算机程序根据需要被安装到存储部分1308中。
[0169]
在通过软件实现上述系列处理的情况下,从网络比如因特网或存储介质比如可拆卸介质1311安装构成软件的程序。
[0170]
本领域技术人员应当理解,这种存储介质不局限于图10所示的其中存储有程序、与设备相分离地分发以向用户提供程序的可拆卸介质1311。可拆卸介质1311的例子包含磁盘(包含软盘(注册商标))、光盘(包含光盘只读存储器(cd-rom)和数字通用盘(dvd))、磁光盘(包含迷你盘(md)(注册商标))和半导体存储器。可替代地,存储介质可以是rom 1302、存储部分1308中包含的硬盘等等,其中存有程序,并且与包含它们的设备一起被分发给用户。
[0171]
另外,应当理解,在以上实施例中包括在一个单元中的多个功能可以由分开的装置来实现。替选地,在以上实施例中由多个单元实现的多个功能可分别由分开的装置来实现。另外,以上功能之一可由多个单元来实现。无需说,这样的配置包括在本公开的技术范围内。
[0172]
在该说明书中,流程图中所描述的步骤不仅包括以所述顺序按时间序列执行的处理,而且包括并行地或单独地而不是必须按时间序列执行的处理。此外,甚至在按时间序列处理的步骤中,无需说,也可以适当地改变该顺序。
[0173]
虽然已经详细说明了本公开及其优点,但是应当理解在不脱离由所附的权利要求所限定的本公开的精神和范围的情况下可以进行各种改变、替代和变换。而且,本公开实施例的术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
[0174]
虽然已详细描述了本公开的一些具体实施例,但是本领域技术人员应当理解,上述实施例仅是说明性的而不限制本公开的范围。本领域技术人员应该理解,上述实施例可以被组合、修改或替换而不脱离本公开的范围和实质。本公开的范围是通过所附的权利要求限定的。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献