一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

边缘AI加速处理方法和装置、电子设备及可读存储介质与流程

2023-03-01 22:01:02 来源:中国专利 TAG:

边缘ai加速处理方法和装置、电子设备及可读存储介质
技术领域
1.本发明涉及人工智能领域,尤其涉及一种边缘ai加速处理方法和装置、电子设备及可读存储介质。


背景技术:

2.目前使用了人工智能的应用,主流的做法有两种:一是在移动端完成全部ai算法的前向推理过程;二是将数据上传到云端,由云或边缘云服务器,进行前向推理,并将计算结果反馈回移动端。
3.运行在移动设备上的应用,如人脸识别、自动驾驶等大多使用第一种方法。该方法或使用前向神经网络加速框架,将pc端训练出的网络模型移植到移动设备中,在移动端硬件设备cpu、gpu、dsp中完成全部的推理过程;或使用神经网络后端加速库,来调用硬件设备加速ai运算。
4.移动设备上的硬件性能相比服务器自是远远不如,因此诞生了许多轻量级网络专门适用于移动设备。但由于这些网络的精度有限,在很多领域都无法应用。
5.在工业界使用深度学习技术来处理图像、视频流、语音和文本数据通常使用第二种方法。该方法或利用云服务器上强大的gpu集群资源来完成网络推理过程,或利用靠近移动端的边缘云服务器来减少网络时延加速推理。完成推理过程后,将结果反馈回移动设备。
6.在论文《neurosurgeon:collaborative intelligence between the cloud and mobile edge》中提出了除以上两种方案外的第三种方法:根据算法模型情况、当前网络情况、移动设备硬件情况等,以网络层为粒度,将前向神经网络进行智能切分,一部分在移动设备上运行,一部分在云服务器上运行。这种做法在降低系统延迟时间的同时也降低了移动设备用于计算的耗电量。根据实时情况,将算法模型进行智能切分,通过移动端与边缘计算平台协做完成推理过程,是一种很有效的方法,但是会存在下述缺陷:1)在计算共享过程中所带来的安全性问题;2)网络模型、参数的保密及用户数据的隐私问题;3)多节点数据共享的信任问题。


技术实现要素:

7.本发明提供一种边缘ai加速处理方法和装置、电子设备及可读存储介质,用以解决现有技术中存在的技术缺陷。
8.本发明提供一种边缘ai加速处理方法,包括:
9.构建融合区块链的边缘计算网络;
10.基于所述边缘计算网络的结构,将所述边缘计算网络进行切分,得到切分点;
11.在所述切分点将特征数据上传到边缘平台;
12.基于预设的现场可编程门阵列的人工智能模型转换规则及工具,对所述特征数据进行处理,并将计算结果反馈给移动设备。
13.根据本发明所述的边缘ai加速处理方法,其中,所述基于预设的现场可编程门阵
列的人工智能模型转换规则及工具,对所述特征数据进行处理,包括:
14.采用砖头技术将通道为通道维度的特征按第一向量和第二向量的向量拆分,并输入多个非阻塞的并行处理的计算处理单元中,每个时钟周期按瓦片的个数取相应个砖头,并通过阻塞式通道在片上缓存中重组形成特征图。
15.根据本发明所述的边缘ai加速处理方法,其中,所述基于预设的现场可编程门阵列的人工智能模型转换规则及工具,对所述特征数据进行处理,还包括:
16.将所述人工智能模型以卷积进行分层,当一个人工智能模型模型有n层卷积操作时,则生成的.h头文件中每个操作数的描述均为discribe[num],num=n的数组;
[0017]
每层特征加载入缓存后,以砖头形式拆分,经过时钟周期后,全部输入所述计算单元;在特征值输入到计算单元同时,预加载下一层参数到缓存中;
[0018]
将所述人工智能模型训练出的每层各算子模型参数以二进制文件形式,按通道维度按序存储。
[0019]
根据本发明所述的边缘ai加速处理方法,其中,所述将所述边缘计算网络进行切分,得到切分点之后,包括:
[0020]
对所述区块链的链上节点进行验证。
[0021]
根据本发明所述的边缘ai加速处理方法,其中,所述在所述切分点将特征数据上传到边缘平台之前,包括:
[0022]
判断网络情况,响应于网络情况良好率大于预设阈值,在所述切分点将特征数据上传到边缘平台。
[0023]
根据本发明所述的边缘ai加速处理方法,其中,所述在所述切分点将特征数据上传到边缘平台之前,包括:
[0024]
根据服务器负载调整切分点,在调整后的切分点将特征数据上传到边缘平台。
[0025]
根据本发明所述的边缘ai加速处理方法,其中,所述将计算结果反馈给移动设备之前,包括:
[0026]
基于所述计算结果,对所述边缘计算网络进行信用度提升上链。
[0027]
本发明还提供了一种边缘ai加速处理装置,包括:
[0028]
网络构建模块,用于构建融合区块链的边缘计算网络;
[0029]
网络切分模块,用于基于所述边缘计算网络的结构,将所述边缘计算网络进行切分,得到切分点;
[0030]
数据传输模块,用于在所述切分点将特征数据上传到边缘平台;
[0031]
数据处理模块,用于基于预设的现场可编程门阵列的人工智能模型转换规则及工具,对所述特征数据进行处理,并将计算结果反馈给移动设备。
[0032]
本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述边缘ai加速处理方法的步骤。
[0033]
本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述边缘ai加速处理方法的步骤。
[0034]
本发明通过将所述边缘计算网络进行切分,得到切分点,在所述切分点将特征数据上传到边缘平台,再基于预设的现场可编程门阵列的人工智能模型转换规则及工具,对
所述特征数据进行处理,数据通过边缘设备传送到边缘平台区块链上,分析后反馈推理到用户设备中。去中心化的边缘ai加速,减少了网络传输成本及时延;融合区块链技术的边缘ai加速,使数据传输更安全,更好的保护了用户隐私。
附图说明
[0035]
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0036]
图1是本发明提供的边缘ai加速处理方法的流程示意图;
[0037]
图2是本发明提供的边缘ai加速处理装置的结构示意图;
[0038]
图3是本发明提供的电子设备的结构示意图。
具体实施方式
[0039]
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0040]
下面结合图1描述本发明的一种边缘ai(artificial intelligence,人工智能)加速处理方法,该方法包括:
[0041]
s1、构建融合区块链的边缘计算网络;
[0042]
构建的边缘计算网络是基于软件定义和虚拟分布式的区块链的,边缘人工智能计算不再是基于云上的数据中心进行人工智能应用的处理,而是保持数据在设备本地,同时将人工智能的部分工作转移到设备上,此时边缘人工智能计算所面对的是大量异构的计算资源和大量存在着被劫持的可能性的节点。因此,传统的适用于云的中心化人工智能的框架并不适合直接套用,而以区块链作为支撑的新型边缘架构得以提出。
[0043]
为保障用户数据隐私,在基于区块链的移动边缘计算网络中,移动设备通过5g基站链接到移动边缘网络,并与最近的边缘服务器进行通信,边缘服务器允许它们通过共享密钥进行通信。同时通信验证是基于身份管理和访问控制的方式,一般是在一个域内设立一个中心管理机构来管理身份或以分布式的形式验证身份,如果身份被验证为可靠,则其受允许的行为便值得信任。
[0044]
边缘服务器主要负责本地网络控制,以安全的方式为基于本地的块链设备提供外包数据存储和计算,其中一些将合并到更高层次的服务器块链中。docker容器部署在边缘节点上(一般为边缘服务器),这些节点执行智能契约,以确保事务得到安全和适当的验证。边缘节点根据不同的信任、隐私和容错要求,使用不同类型的区块链。所有的docker容器由kubenetes集群统一管理,负责应用程序的管理与下载。
[0045]
边缘节点能够利用多种加密算法在保障隐私的情况下建立多方之间的协作关系。在区块链中添加新块需要经过共识机制确认,任何块都记录并存储一个与前一个块相连接的数据,并且只有当相应的消息通过大多数参与者的验证时,才会将一个新块附加到分类
账上。这样特殊的机制设计保障了在单点故障下很好的健壮性,并避免了数据的恶意篡改。
[0046]
s2、基于所述边缘计算网络的结构,将所述边缘计算网络进行切分,得到切分点;
[0047]
可从边缘计算网络中找到适合切分的点将边缘计算网络拆分,前半部分在移动设备上运行。
[0048]
s3、在所述切分点将特征数据上传到边缘平台;
[0049]
在切分点将特征数据通过网络上传到边缘平台,后半部分由平台计算,并将结果反馈回移动端。
[0050]
s4、基于预设的现场可编程门阵列的ai(人工智能)模型转换规则及工具,对所述特征数据进行处理,并将计算结果反馈给移动设备。
[0051]
基于边缘计算平台的ai加速的目的是为了计算的实时性,引入区块链技术主要为了保证数据及算法的安全性。但是这种引入又在一定程度上增加了时间消耗。为保障边缘ai加速能力,引入了fpga(field-programmable gate array,即现场可编程门阵列)对区块链及ai模型进行加速。
[0052]
不同于区块链的加解密算法,在人工智能中,ai边缘计算网络复杂多变,通常在不同的应用场景使用不同的边缘计算网络,同一模型也会随着时间迁移做出一定优化调整。而fpga是一种半定制电路,是可编程的逻辑门列阵。意味着更换边缘计算网络会给算法轻量化移值人员带来很大的工作量。为解决此问题,设计了一套基于fpga的ai模型转换规则及工具。不同的深度学习框架都有不同的边缘计算网络描述文件,如caffe使用的prototxt,在转换成适用于fpga的模型时,就需要变成fpga能理解的,host端的基于c 的.h头文件。算法转换规则主要就是指生成.h控制流文件的规则;边缘计算网络及超参数置于边缘区块链上存储与保护。
[0053]
本发明通过将所述边缘计算网络进行切分,得到切分点,在所述切分点将特征数据上传到边缘平台,再基于预设的现场可编程门阵列的人工智能模型转换规则及工具,对所述特征数据进行处理,数据通过边缘设备传送到边缘平台区块链上,分析后反馈推理到用户设备中。去中心化的边缘ai加速,减少了网络传输成本及时延;融合区块链技术的边缘ai加速,使数据传输更安全,更好的保护了用户隐私。
[0054]
根据本发明所述的边缘ai加速处理方法,其中,所述基于预设的现场可编程门阵列的人工智能模型转换规则及工具,对所述特征数据进行处理,包括:
[0055]
采用砖头技术将通道为通道维度的特征按第一向量和第二向量的向量拆分,并输入多个非阻塞的并行处理的计算处理单元中,每个时钟周期按瓦片的个数取相应个砖头,并通过阻塞式通道在片上缓存中重组形成特征图。
[0056]
fpga的片上存储资源有限,很难做到gpu(graphics processing unit,图形处理器)那样的将图片与特征全部一次性载入及计算。因此采用tile(砖头)技术将通道为chw(通道维度分别为c、h、w)的特征按cwec(c向量,表示c方向上取几个像素)和wwec(w向量,表示w方向上取几个像素)的向量拆分,并输入多个非阻塞的并行处理的pe(计算处理单元)中,每个cycle时钟周期都会按pe的个数取相应个tile,最后通过阻塞式channel(通道)在片上缓存中重组成新的特征图。
[0057]
以alexnet网络结构为例,一个神经网络经由多个算子对特征图进行相应计算,每层的输入、输出参数不同,所需的cycle不同,数据流向不同,因此需要设计一套规则来实现
灵活的算法移植。
[0058]
根据本发明所述的边缘ai加速处理方法,其中,所述基于预设的现场可编程门阵列的人工智能模型转换规则及工具,对所述特征数据进行处理,还包括:
[0059]
将所述人工智能模型以卷积进行分层,当一个人工智能模型模型有n层卷积操作时,则生成的.h头文件中每个操作数的描述均为discribe[num],num=n的数组;
[0060]
每层特征加载入缓存后,以砖头形式拆分,经过时钟周期后,全部输入所述计算单元;在特征值输入到计算单元同时,预加载下一层参数到缓存中;
[0061]
将所述人工智能模型训练出的每层各算子模型参数以二进制文件形式,按通道维度按序存储。
[0062]
可以将边缘计算网络以卷积来分层,设一个边缘计算网络有n层卷积(全连接可视为特殊的卷积)操作,则生成的.h中每个操作数的描述均为discribe[num],num=n的数组。如alexnet,有5层卷积,n=5。在数组中每一个num为对当前层参数的具体描述。
[0063]
如alexnet中对每层归一化函数的描述:constant bool norm_enabled[num_convolutions]={true,true,false,false,false};可见前两层卷积后需要走归一化函数模块进行计算,后三层则不用。
[0064]
如alexnet对每层过滤器(模型卷积参数)的描述:constant int filter_full_size[num_convolutions]={3*3,5*5,3*3,3*3,3*3};每个num值描述了当前层对应的过滤器大小。
[0065]
整个基于fpga的ai加速软件设计采用管道-过滤器架构。
[0066]
如前所述,每层特征加载入缓存后,以tile形式拆分,经过cycle个时钟周期后,
[0067]
cycle=(c x w x h)/(cwec x wwec x kwec),
[0068]
全部输入计算单元。为充分利用硬件资源,使用流水化的方式,在特征值输入到计算单元同时,预加载下一层参数到缓存中。所需可能最大cycle数为:
[0069]
cycle(next)=(k x p x q)/(cwec x wwec x kwec),
[0070]
因此完成一个算子所需的时钟周期为
[0071]
cycle=if(cycle》cycle(next))?cycle:cycle(next);
[0072]
由host端负责控制fpga内每个算子经cycle轮调用。
[0073]
每层间各算子模型参数以2进制bin文件形式,按nchw的维度按序存储。
[0074]
根据本发明所述的边缘ai加速处理方法,其中,所述将所述边缘计算网络进行切分,得到切分点之后,包括:
[0075]
对所述区块链的链上节点进行验证。用户调用边缘加速可以先通过链上验证,涉及到信用度,因此还需要对所述区块链的链上节点进行验证。边缘共识机制增加了用户数据共享的激励性。
[0076]
根据本发明所述的边缘ai加速处理方法,其中,所述在所述切分点将特征数据上传到边缘平台之前,包括:
[0077]
判断网络情况,响应于网络情况良好率大于预设阈值,在所述切分点将特征数据上传到边缘平台。网络情况良好率就是指通信程度,也就是说,网络情况良好的话,在所述切分点将特征数据上传到边缘平台;若网络情况良好率不大于预设阈值,则直接跳转到信用度提升上链的步骤,不需要进行在所述切分点将特征数据上传到边缘平台等步骤。
[0078]
根据本发明所述的边缘ai加速处理方法,其中,所述在所述切分点将特征数据上传到边缘平台之前,包括:
[0079]
根据服务器负载调整切分点,在调整后的切分点将特征数据上传到边缘平台。根据服务器负载调整切分点事考虑到负载均衡。
[0080]
根据本发明所述的边缘ai加速处理方法,其中,所述将计算结果反馈给移动设备之前,包括:
[0081]
基于所述计算结果,对所述边缘计算网络进行信用度提升上链。
[0082]
对与积极有用的结果给与可信度的提升,可信度高的信息将参与多用户决策中,数据通过边缘5g设备传送到边缘平台区块链上,分析后反馈推理到用户设备中。解决了多节点信息决策的可信问题。
[0083]
参见图2,下面对本发明提供的边缘ai加速处理装置进行描述,下文描述的边缘ai加速处理装置与上文描述的边缘ai加速处理方法可相互对应参照,所述边缘ai加速处理装置包括:
[0084]
网络构建模块10,用于构建融合区块链的边缘计算网络;
[0085]
构建的边缘计算网络是基于软件定义和虚拟分布式的区块链的,边缘人工智能计算不再是基于云上的数据中心进行人工智能应用的处理,而是保持数据在设备本地,同时将人工智能的部分工作转移到设备上,此时边缘人工智能计算所面对的是大量异构的计算资源和大量存在着被劫持的可能性的节点。因此,传统的适用于云的中心化人工智能的框架并不适合直接套用,而以区块链作为支撑的新型边缘架构得以提出。
[0086]
为保障用户数据隐私,在基于区块链的移动边缘计算网络中,移动设备通过5g基站链接到移动边缘网络,并与最近的边缘服务器进行通信,边缘服务器允许它们通过共享密钥进行通信。同时通信验证是基于身份管理和访问控制的方式,一般是在一个域内设立一个中心管理机构来管理身份或以分布式的形式验证身份,如果身份被验证为可靠,则其受允许的行为便值得信任。
[0087]
边缘服务器主要负责本地网络控制,以安全的方式为基于本地的块链设备提供外包数据存储和计算,其中一些将合并到更高层次的服务器块链中。docker容器部署在边缘节点上(一般为边缘服务器),这些节点执行智能契约,以确保事务得到安全和适当的验证。边缘节点根据不同的信任、隐私和容错要求,使用不同类型的区块链。所有的docker容器由kubenetes集群统一管理,负责应用程序的管理与下载。
[0088]
边缘节点能够利用多种加密算法在保障隐私的情况下建立多方之间的协作关系。在区块链中添加新块需要经过共识机制确认,任何块都记录并存储一个与前一个块相连接的数据,并且只有当相应的消息通过大多数参与者的验证时,才会将一个新块附加到分类账上。这样特殊的机制设计保障了在单点故障下很好的健壮性,并避免了数据的恶意篡改。
[0089]
网络切分模块20,用于基于所述边缘计算网络的结构,将所述边缘计算网络进行切分,得到切分点;
[0090]
可从边缘计算网络中找到适合切分的点将边缘计算网络拆分,前半部分在移动设备上运行。
[0091]
数据传输模块30,用于在所述切分点将特征数据上传到边缘平台;
[0092]
在切分点将特征数据通过网络上传到边缘平台,后半部分由平台计算,并将结果
反馈回移动端。
[0093]
数据处理模块40,用于基于预设的现场可编程门阵列的人工智能模型转换规则及工具,对所述特征数据进行处理,并将计算结果反馈给移动设备。
[0094]
基于边缘计算平台的ai加速的目的是为了计算的实时性,引入区块链技术主要为了保证数据及算法的安全性。但是这种引入又在一定程度上增加了时间消耗。为保障边缘ai加速能力,引入了fpga(field-programmable gate array,即现场可编程门阵列)对区块链及ai模型进行加速。
[0095]
根据本发明所述的边缘ai加速处理装置,其中,所述数据处理模块40具体用于:
[0096]
采用砖头技术将通道为通道维度的特征按第一向量和第二向量的向量拆分,并输入多个非阻塞的并行处理的计算处理单元中,每个时钟周期按瓦片的个数取相应个砖头,并通过阻塞式通道在片上缓存中重组形成特征图。
[0097]
fpga的片上存储资源有限,很难做到gpu(graphics processing unit,图形处理器)那样的将图片与特征全部一次性载入及计算。因此采用tile(砖头)技术将通道为chw(通道维度分别为c、h、w)的特征按cwec(c向量,表示c方向上取几个像素)和wwec(w向量,表示w方向上取几个像素)的向量拆分,并输入多个非阻塞的并行处理的pe(计算处理单元)中,每个cycle时钟周期都会按pe的个数取相应个tile,最后通过阻塞式channel(通道)在片上缓存中重组成新的特征图。
[0098]
以alexnet网络结构为例,一个神经网络经由多个算子对特征图进行相应计算,每层的输入、输出参数不同,所需的cycle不同,数据流向不同,因此需要设计一套规则来实现灵活的算法移植。
[0099]
根据本发明所述的边缘ai加速处理装置,其中,所述数据处理模块40具体用于:
[0100]
将所述人工智能模型以卷积进行分层,当一个人工智能模型模型有n层卷积操作时,则生成的.h头文件中每个操作数的描述均为discribe[num],num=n的数组;
[0101]
每层特征加载入缓存后,以砖头形式拆分,经过时钟周期后,全部输入所述计算单元;在特征值输入到计算单元同时,预加载下一层参数到缓存中;
[0102]
将所述人工智能模型训练出的每层各算子模型参数以二进制文件形式,按通道维度按序存储。
[0103]
可以将边缘计算网络以卷积来分层,设一个边缘计算网络有n层卷积(全连接可视为特殊的卷积)操作,则生成的.h中每个操作数的描述均为discribe[num],num=n的数组。如alexnet,有5层卷积,n=5。在数组中每一个num为对当前层参数的具体描述。
[0104]
如alexnet中对每层归一化函数的描述:constant bool norm_enabled[num_convolutions]={true,true,false,false,false};可见前两层卷积后需要走归一化函数模块进行计算,后三层则不用。
[0105]
如alexnet对每层过滤器(模型卷积参数)的描述:constant int filter_full_size[num_convolutions]={3*3,5*5,3*3,3*3,3*3};每个num值描述了当前层对应的过滤器大小。
[0106]
整个基于fpga的ai加速软件设计采用管道-过滤器架构。
[0107]
如前所述,每层特征加载入缓存后,以tile形式拆分,经过cycle个时钟周期后,
[0108]
cycle=(c x w x h)/(cwec x wwec x kwec),
[0109]
全部输入计算单元。为充分利用硬件资源,使用流水化的方式,在特征值输入到计算单元同时,预加载下一层参数到缓存中。所需可能最大cycle数为:
[0110]
cycle(next)=(k x p x q)/(cwec x wwec x kwec),
[0111]
因此完成一个算子所需的时钟周期为
[0112]
cycle=if(cycle》cycle(next))?cycle:cycle(next);
[0113]
由host端负责控制fpga内每个算子经cycle轮调用。
[0114]
每层间各算子模型参数以2进制bin文件形式,按nchw的维度按序存储。
[0115]
根据本发明所述的边缘ai加速处理装置,其中,所述将所述边缘计算网络进行切分,得到切分点之后,包括:
[0116]
对所述区块链的链上节点进行验证。用户调用边缘加速可以先通过链上验证,涉及到信用度,因此还需要对所述区块链的链上节点进行验证。
[0117]
根据本发明所述的边缘ai加速处理装置,其中,所述在所述切分点将特征数据上传到边缘平台之前,包括:
[0118]
判断网络情况,响应于网络情况良好率大于预设阈值,在所述切分点将特征数据上传到边缘平台。网络情况良好率就是指通信程度,也就是说,网络情况良好的话,在所述切分点将特征数据上传到边缘平台;若网络情况良好率不大于预设阈值,则直接跳转到信用度提升上链的步骤,不需要进行在所述切分点将特征数据上传到边缘平台等步骤。
[0119]
根据本发明所述的边缘ai加速处理装置,其中,所述在所述切分点将特征数据上传到边缘平台之前,包括:
[0120]
根据服务器负载调整切分点,在调整后的切分点将特征数据上传到边缘平台。根据服务器负载调整切分点事考虑到负载均衡。
[0121]
根据本发明所述的边缘ai加速处理装置,其中,所述将计算结果反馈给移动设备之前,包括:
[0122]
基于所述计算结果,对所述边缘计算网络进行信用度提升上链。
[0123]
对与积极有用的结果给与可信度的提升,可信度高的信息将参与多用户决策中,数据通过边缘5g设备传送到边缘平台区块链上,分析后反馈推理到用户设备中。
[0124]
图3示例了一种电子设备的实体结构示意图,该电子设备可以包括:处理器(processor)310、通信接口(communications interface)320、存储器(memory)330和通信总线340,其中,处理器310,通信接口320,存储器330通过通信总线340完成相互间的通信。处理器310可以调用存储器330中的逻辑指令,以执行边缘ai加速处理方法,该方法包括:
[0125]
s1、构建融合区块链的边缘计算网络;
[0126]
s2、基于所述边缘计算网络的结构,将所述边缘计算网络进行切分,得到切分点;
[0127]
s3、在所述切分点将特征数据上传到边缘平台;
[0128]
s4、基于预设的现场可编程门阵列的人工智能模型转换规则及工具,对所述特征数据进行处理,并将计算结果反馈给移动设备。
[0129]
此外,上述的存储器330中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以
使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、磁碟或者光盘等各种可以存储程序代码的介质。
[0130]
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法所提供的边缘ai加速处理方法,该方法包括:
[0131]
s1、构建融合区块链的边缘计算网络;
[0132]
s2、基于所述边缘计算网络的结构,将所述边缘计算网络进行切分,得到切分点;
[0133]
s3、在所述切分点将特征数据上传到边缘平台;
[0134]
s4、基于预设的现场可编程门阵列的人工智能模型转换规则及工具,对所述特征数据进行处理,并将计算结果反馈给移动设备。
[0135]
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各提供的边缘ai加速处理方法,该方法包括:
[0136]
s1、构建融合区块链的边缘计算网络;
[0137]
s2、基于所述边缘计算网络的结构,将所述边缘计算网络进行切分,得到切分点;
[0138]
s3、在所述切分点将特征数据上传到边缘平台;
[0139]
s4、基于预设的现场可编程门阵列的人工智能模型转换规则及工具,对所述特征数据进行处理,并将计算结果反馈给移动设备。
[0140]
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
[0141]
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如rom/ram、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
[0142]
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献