一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种电力作业现场安全帽检测及身份识别方法及装置与流程

2022-02-22 23:49:18 来源:中国专利 TAG:


1.本发明涉及目标检测技术领域,尤其是一种电力作业现场安全帽检测及身份识别方法及装置。


背景技术:

2.为了监督工人按要求佩戴安全帽,目前大部分工厂、工地都采用视频监控,采用人工监督方法,但是该方法需要大量的人力,而且部分角落还存在监控盲区问题,因此需要一个更为可靠的方法。
3.传统工地监管系统大多由专门的工程管理体系实现,但是此种的工地监管系统需要消耗大量人力,并且由于个人疏忽等其他难以回避的因素,很难做到安全规范的广泛落实,具有可靠性较低、反应时延较长,成本较大以及管理不便等显著缺陷。


技术实现要素:

4.本发明提出一种电力作业现场安全帽检测及身份识别方法,能通过识别电力作业现场工作人员安全帽佩戴状态,进而判识别工作人员身份,辅助管理人员管理,防止外来人员对电力作业现场造成重大经济损失,保证人员生命安全。
5.本发明采用以下技术方案。
6.一种电力作业现场安全帽检测及身份识别方法,包括以下步骤:
7.步骤一、获取电力作业现场的待识别图像;
8.步骤二、将所述待识别图像输入目标检测网络,获取所述目标检测网络输出的安全帽佩戴状态检测结果;
9.步骤三、根据所述安全帽佩戴状态检测结果确定所述待识别图像中目标区域的人员身份。
10.步骤二的目标检测网络以输入的样本数据集训练,样本数据集中包括安全帽佩戴样本图像,样本数据集的生成包括以下步骤;
11.步骤c一、收集电力作业现场的安全帽佩戴样本图像,对收集到的安全帽佩戴样本图像进行图像尺度归一化和图像标准化,并按预设的选择标准挑选出特定的安全帽佩戴样本图像;
12.步骤c二、对特定的安全帽佩戴样本图像中可用于安全帽检测的区域进行人工标注,形成样本数据集;
13.所述步骤c一中,样本数据集的收集方法包括两部分,一部分的获取方法是通过电力作业现场实时监控系统采集包含有工作人员佩戴安全帽的视频,并对视频以预设帧率抽帧而得到的安全帽佩戴样本图像;另一部分是由网络检索下载得到样本图像,这部分样本图像中包括佩戴安全帽的人员和未佩戴安全帽的人员;
14.在步骤c一中,对收集到的安全帽佩戴样本图像进行图像尺度归一化和图像标准化,并按预设的选择标准挑选出特定的安全帽佩戴样本图像形成样本数据集;
15.所述选择标准包括以下内容:
16.标准a、选择不同光照条件下有安全帽出现的安全帽佩戴样本图像;
17.标准b、选择拍摄角度不同而导致目标所占画幅大小不同的情况下的安全帽佩戴样本图像;
18.标准c、选择中等人群密度且人员之间互不遮挡时的安全帽佩戴样本图像;
19.标准d、选择高等人群密度且人员之间相互有遮挡时的安全帽佩戴样本图像。
20.所述步骤c二中,人工标注为使用labelimg软件标注安全帽佩戴样本图像,标注工作包括两方面内容:
21.工作内容a、给每个可用于安全帽检测的区域画一个标注框,便于目标检测网络获得检测目标在图像的位置信息;
22.工作内容b、给出每个标注框对应的安全帽佩戴状态的类别名称,便于目标检测网络将学习到的标注框内的特征与类别匹配。
23.训练所述目标检测网络的方法具体为:
24.步骤a1、搜集样本数据集并将所有图片的图片长边尺寸统一为固定尺寸,再输入到vgg16卷积神经网络提取特征以形成特征图;
25.步骤a2、将vgg16卷积神经网络后4个网络阶段的特征图进行融合,再将步骤a1得到的特征图依次输入到rpn网络,完成特征融合及多尺度检测,并引入可增强rpn网络辨别能力的在线困难样本;以改进的非极大值抑制算法剔除部分冗余框,并将部分正样本的包围框删减;筛选出疑似感兴趣区域roi;
26.步骤a3、把疑似感兴趣区域roi输入只读roi网络,并引入在线困难样本挖掘,调整roi感兴趣区域;最后将roi感兴趣区域送入标准roi网络,输出最终结果,即目标检测网络模型。
27.vgg16卷积神经网络顺序地分为5个网络阶段,各网络阶段的最后一个卷积层分别为c1、c2、c3、c4、c5;
28.在c2与c4的特征图融合时,首先c4通过一个1
×1×
256的卷积核改变维度,使得通道数为256,再进行包括四倍双线性插值上采样操作的反卷积以使c4和c2的特征图尺寸相同;并利用1
×1×
256的卷积核将2特征图通道数修改为256,再与c4进行融合,其融合的操作使用加性融合函数;为了去除上采样带来混叠效应,将融合后的特征图进行一次卷积核为3
×
3的卷积操作,以生成通道数为256的新的特征层p2;
29.在c5与c3的特征图融合时生成特征层p3,其融合原理采用c2与c4的特征图融合原理;
30.c4和c5分别进行一次卷积核为1
×1×
256的用于改变通道数的卷积操作和一次卷积核为3
×
3的卷积操作,生成特征层p4和p5;
31.经特征图融合得到以特征层p5、p4、p3、p2形成的特征金字塔;所述特征金字塔每一层输出维度固定为256,其浅层特征融合了深层特征可检测小目标,高层特征的强语义信息可检测中、大目标,且每一层新特征与rpn相连接,分别预测感兴趣区域以实现多尺度检测。
32.所述感兴趣区域中,感受野较小的rpn/p2和rpn/p3所对应的锚窗尺寸为{24
×
24,32
×
32,64
×
64},感受野较大的rpn/p4和rpn/p5所对应的是{64
×
64,128
×
128,256
×
256},长宽比都是{1:1,2:1,1:2};
33.将特征层4部分的感兴趣区域输入到roi池化层,并映射回各自对应的金字塔特征层﹐得到一系列感兴趣区域的特征块,统一尺寸为7
×
7,最后利用级联融合函数,将这4个层级的特征图纵向拼接在一起,共享分类层和回归层,以公式表述为
[0034][0035]
其中,xa和xb为特征金字塔中不同层的特征矩阵,y为融合后的特征矩阵。xa、xb和y∈rh×w×d,h、w和d分别是特征层的长度、宽度和通道数。i∈[1,h],j∈[1,w],d∈[1,d]。
[0036]
所述在线困难样本挖掘ohem包括:对于faster r-cnn算法的检测任务引入ohem,在fastr-cnn阶段需要挖掘损失满足预设要求的样本列入困难样本池,重新组成训练样本集,然后送到分类网络和目标边框回归模型中,计算网络模型损失进行反向传播更新网络;流程包括:
[0037]
步骤b1、对于输入图像进行尺寸归一化后,通过特征融合后的vgg16网络得到包括特征层p5、p4、p3和p2的特征金字塔,然后将其分别送入rpn网络,多尺度预测得到可能含有目标的感兴趣区域;
[0038]
步骤b2、将所有感兴趣区域输入到只读roi网络中进行前向传播,不进行小批量采样;只读roi网络包括roi池化层、全连接层、softmax分类层和目标框回归层;感兴趣区域输入到roi池化层,池化层将其映射对应的金字塔特征层,并统一尺寸为7
×
7,再将4部分大小相同的特征图利用级联融合函数concat层纵向拼接成为一部分;
[0039]
步骤b3、将感兴趣区域特征图输入后续层进行计算,得到所有感兴趣区域的损失值,损失值的大小代表对网络结构权重的适应程度,将所有值进行排序,留取前k个作为困难样本,并令其他损失值为0;
[0040]
步骤b4、根据损失值对应的感兴趣区域索引值找到对应的困难样本,输入到标准roi网络,输出为预测得到的分类结果和边界框的坐标,与标定的结果进行对比计算误差,反向传播更新整个网络参数,修正了整个目标检测网络,使得网络检测任务完成度更高。
[0041]
所述改进的非极大值抑制算法包括:
[0042]
步骤s1、将所有目标框按得分排序,认为当前得分最高的目标框m包含目标;
[0043]
步骤s2、计算剩余目标框与m的交并比,当目标框与m的交并比小于ni,认为当前目标框与m代表着两个不同的目标,保持原来得分;
[0044]
步骤s3、当目标框与m的交并比介于ni和n
t
之间时,则认为当前目标框和m可能是包含两个不同的目标,也可能是和m代表同一个目标,因此采用权值惩罚策略它和iou(m,bi)成反比,将得分降低且保留目标框,参加下一轮筛选;
[0045]
步骤s4、当目标框与m的交并比大于n
t
时,确定当前目标框和m代表一个目标,丢弃当前目标框;
[0046]
移动当前m至结果目标框集合内,剩余目标框组成新的集合,重复步骤s1至步骤s4,直到目标框集合为空,结束筛选,输出结果。
[0047]
表达式为:其中,n
t
为原阈值,ni为新增阈值。
[0048]
所述步骤一的方法为,电脑主机获取电力作业现场视频,并进行图像预处理,所述图像预处理包括:视频以一定帧率抽帧,然后对每一帧进行图像尺度归一化和图像标准化,得到目标检测网络的输入;
[0049]
步骤二中,训练完成的目标检测网络为以改进fasterr-cnn网络训练得到的改进的faster r-cnn网络模型。
[0050]
所述步骤c二中样本数据集中的标注包括以下安全帽佩戴状态的类别名称:佩戴红色安全帽人员、黄色安全帽人员、白色安全帽人员、蓝色安全帽人员和未佩戴安全帽人员;
[0051]
所述样本数据集中的标注以pascal voc格式的xml文件保存,所述xml文件可由python软件读取并用于训练。
[0052]
所述根据所述安全帽佩戴状态检测结果确定所述待识别图像中目标区域的人员身份,包括:
[0053]
从所述安全帽佩戴状态检测结果中获取第一特征,根据所述第一特征确定所述目标区域中的人员是否佩戴安全帽;
[0054]
此处的第一特征为安全帽佩戴状态。
[0055]
在人员佩戴安全帽的情况下,从所述安全帽佩戴状态检测结果中获取第二特征,根据所述第二特征确定人员身份。
[0056]
此处的第二特征为安全帽类别。
[0057]
所述方法还包括:在人员未佩戴安全帽的情况下,控制后台管理机构或电力作业现场的目标区域中的报警装置报警。
[0058]
一种电力作业现场安全帽检测及身份识别装置,用于电力作业现场安全帽检测及身份识别方法,所述装置包括:
[0059]
待识别图像获取模块,用于获取电力作业现场的待识别图像;
[0060]
安全帽检测模块,用于将所述待识别图像输入目标检测网络,获取所述目标检测网络输出的安全帽佩戴状态检测结果;
[0061]
身份识别模块,用于根据所述安全帽佩戴状态检测结果确定所述待识别图像中目标区域的人员身份。
[0062]
所述身份识别模块用于:
[0063]
从所述安全帽佩戴状态检测结果中获取第一特征,根据所述第一特征确定所述目标区域中的人员是否佩戴安全帽;
[0064]
在人员佩戴安全帽的情况下,从所述安全帽佩戴状态检测结果中获取第二特征,根据所述第二特征确定人员身份。
[0065]
电力作业现场安全帽检测及身份识别装置还包括报警控制模块,所述报警控制模块与后台管理机构或电力作业现场的目标区域中的报警装置相连,当所述身份识别模块检
测到电力作业现场的目标区域中存在未佩戴安全帽的人员时,控制报警装置报警。
[0066]
总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够取得下列有益效果:
[0067]
(1)本发明提供的一种电力作业现场安全帽检测及身份识别方法,在系统运行过程中可以通过对电力作业现场中监控设备采集的图像信息识别工作人员安全帽佩戴情况是否符合作业现场要求,并进行语音提示,提醒管理人员有异常情况;
[0068]
(2)本发明提供的一种电力作业现场安全帽检测及身份识别方法,可以实时对电力作业现场中工作人员安全帽进行智能地识别,辅助管理人员管理,同时提高了对小目标和重叠目标的检测效果,算法鲁棒性更好,速度更快。
附图说明
[0069]
下面结合附图和具体实施方式对本发明进一步详细的说明:
[0070]
附图1是本发明所述方法的流程示意图;
[0071]
附图2是本发明所述方法的架构原理示意图。
具体实施方式
[0072]
在传统的工地现场监管中,监管人员可通过安全帽佩戴状态来识别人员身份,安全帽佩戴状态可以是实际应用过程中根据需求定义。一种可能的实现方式中,安全帽佩戴状态指示了人员是否佩戴安全帽,即安全帽佩戴状态包括:佩戴、未佩戴两个状态。另一种可能的实现方式中,安全帽佩戴状态指示了人员是否佩戴安全帽以及佩戴了安全帽时安全帽的类型,即安全帽佩戴状态包括:未佩戴、佩戴类型a的安全帽、佩戴类型b的安全帽等等。其中,安全帽的类型可以但不仅限于通过颜色体现。
[0073]
相应的,在工地现场监管中,人员身份也可以在实际应用中根据需求定义。例如:若监管时,安全帽佩戴状态指示了人员是否佩戴安全帽,那么,人员身份可以判定为:合规人员、不合规人员两种状态。若安全帽佩戴状态指示了人员是否佩戴安全帽以及佩戴了安全帽时安全帽的类型,那么人员身份可以判定为:管理人员、普通工作人员、不合规人员。
[0074]
如何以图像识别技术来自动地对安全帽佩戴状态进行识别,起到监管人员人力识别的效果,是一个研究方向,也是本实施例的主要内容。
[0075]
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合
[0076]
如图1所示,在本实施例中有以下流程:
[0077]
流程1、先搜集电力作业现场安全帽样本数据集,并进行人工标注;
[0078]
流程2、改进fasterr-cnn网络,训练安全帽检测网络模型;
[0079]
流程3、获取目标区域的待识别图像;
[0080]
流程4、使用安全帽检测网络模型作为目标检测网络;
[0081]
流程5、判断安全帽类别,进而确定人员身份;
[0082]
以上流程基本以下实施的技术方案:
[0083]
一种电力作业现场安全帽检测及身份识别方法,包括以下步骤:
[0084]
步骤一、获取电力作业现场的待识别图像;
[0085]
步骤二、将所述待识别图像输入目标检测网络,获取所述目标检测网络输出的安全帽佩戴状态检测结果;
[0086]
步骤三、根据所述安全帽佩戴状态检测结果确定所述待识别图像中目标区域的人员身份。
[0087]
步骤二的目标检测网络以输入的样本数据集训练,样本数据集中包括安全帽佩戴样本图像,样本数据集的生成包括以下步骤;
[0088]
步骤c一、收集电力作业现场的安全帽佩戴样本图像,对收集到的安全帽佩戴样本图像进行图像尺度归一化和图像标准化,并按预设的选择标准挑选出特定的安全帽佩戴样本图像;
[0089]
步骤c二、对特定的安全帽佩戴样本图像中可用于安全帽检测的区域进行人工标注,形成样本数据集;
[0090]
所述步骤c一中,样本数据集的收集方法包括两部分,一部分的获取方法是通过电力作业现场实时监控系统采集包含有工作人员佩戴安全帽的视频,并对视频以预设帧率抽帧而得到的安全帽佩戴样本图像;另一部分是由网络检索下载得到样本图像,这部分样本图像中包括佩戴安全帽的人员和未佩戴安全帽的人员;
[0091]
在步骤c一中,对收集到的安全帽佩戴样本图像进行图像尺度归一化和图像标准化,并按预设的选择标准挑选出特定的安全帽佩戴样本图像形成样本数据集;
[0092]
所述选择标准包括以下内容:
[0093]
标准a、选择不同光照条件下有安全帽出现的安全帽佩戴样本图像;
[0094]
标准b、选择拍摄角度不同而导致目标所占画幅大小不同的情况下的安全帽佩戴样本图像;
[0095]
标准c、选择中等人群密度且人员之间互不遮挡时的安全帽佩戴样本图像;
[0096]
标准d、选择高等人群密度且人员之间相互有遮挡时的安全帽佩戴样本图像。
[0097]
所述步骤c二中,人工标注为使用labelimg软件标注安全帽佩戴样本图像,标注工作包括两方面内容:
[0098]
工作内容a、给每个可用于安全帽检测的区域画一个标注框,便于目标检测网络获得检测目标在图像的位置信息;
[0099]
工作内容b、给出每个标注框对应的安全帽佩戴状态的类别名称,便于目标检测网络将学习到的标注框内的特征与类别匹配。
[0100]
如图2所示,训练所述目标检测网络的方法具体为:
[0101]
步骤a1、搜集样本数据集并将所有图片的图片长边尺寸统一为固定尺寸,再输入到vgg16卷积神经网络提取特征以形成特征图;
[0102]
步骤a2、将vgg16卷积神经网络后4个网络阶段的特征图进行融合,再将步骤a1得到的特征图依次输入到rpn网络,完成特征融合及多尺度检测,并引入可增强rpn网络辨别能力的在线困难样本;以改进的非极大值抑制算法剔除部分冗余框,并将部分正样本的包围框删减;筛选出疑似感兴趣区域roi;
[0103]
步骤a3、把疑似感兴趣区域roi输入只读roi网络,并引入在线困难样本挖掘,调整
roi感兴趣区域;最后将roi感兴趣区域送入标准roi网络,输出最终结果,即目标检测网络模型。
[0104]
vgg16卷积神经网络顺序地分为5个网络阶段,各网络阶段的最后一个卷积层分别为c1、c2、c3、c4、c5;
[0105]
在c2与c4的特征图融合时,首先c4通过一个1
×1×
256的卷积核改变维度,使得通道数为256,再进行包括四倍双线性插值上采样操作的反卷积以使c4和c2的特征图尺寸相同;并利用1
×1×
256的卷积核将2特征图通道数修改为256,再与c4进行融合,其融合的操作使用加性融合函数;为了去除上采样带来混叠效应,将融合后的特征图进行一次卷积核为3
×
3的卷积操作,以生成通道数为256的新的特征层p2;
[0106]
在c5与c3的特征图融合时生成特征层p3,其融合原理采用c2与c4的特征图融合原理;
[0107]
c4和c5分别进行一次卷积核为1
×1×
256的用于改变通道数的卷积操作和一次卷积核为3
×
3的卷积操作,生成特征层p4和p5;
[0108]
经特征图融合得到以特征层p5、p4、p3、p2形成的特征金字塔;所述特征金字塔每一层输出维度固定为256,其浅层特征融合了深层特征可检测小目标,高层特征的强语义信息可检测中、大目标,且每一层新特征与rpn相连接,分别预测感兴趣区域以实现多尺度检测。
[0109]
所述感兴趣区域中,感受野较小的rpn/p2和rpn/p3所对应的锚窗尺寸为{24
×
24,32
×
32,64
×
64},感受野较大的rpn/p4和rpn/p5所对应的是{64
×
64,128
×
128,256
×
256},长宽比都是{1∶1,2∶1,1∶2};
[0110]
将特征层4部分的感兴趣区域输入到roi池化层,并映射回各自对应的金字塔特征层,得到一系列感兴趣区域的特征块,统一尺寸为7
×
7,最后利用级联融合函数,将这4个层级的特征图纵向拼接在一起,共享分类层和回归层,以公式表述为
[0111][0112]
其中,xa和xb为特征金字塔中不同层的特征矩阵,y为融合后的特征矩阵。xa、xb和y∈rh×w×d,h、w和d分别是特征层的长度、宽度和通道数。i∈[1,h],j∈[1,w],d∈[1,d]。
[0113]
所述在线困难样本挖掘ohem包括:对于faster r-cnn算法的检测任务引入ohem,在fastr-cnn阶段需要挖掘损失满足预设要求的样本列入困难样本池,重新组成训练样本集,然后送到分类网络和目标边框回归模型中,计算网络模型损失进行反向传播更新网络;流程包括:
[0114]
步骤b1、对于输入图像进行尺寸归一化后,通过特征融合后的vgg16网络得到包括特征层p5、p4、p3和p2的特征金字塔,然后将其分别送入rpn网络,多尺度预测得到可能含有目标的感兴趣区域;
[0115]
步骤b2、将所有感兴趣区域输入到只读roi网络中进行前向传播,不进行小批量采样;只读roi网络包括roi池化层、全连接层、softmax分类层和目标框回归层;感兴趣区域输入到roi池化层,池化层将其映射对应的金字塔特征层,并统一尺寸为7
×
7,再将4部分大小相同的特征图利用级联融合函数concat层纵向拼接成为一部分;
[0116]
步骤b3、将感兴趣区域特征图输入后续层进行计算,得到所有感兴趣区域的损失值,损失值的大小代表对网络结构权重的适应程度,将所有值进行排序,留取前k个作为困
难样本,并令其他损失值为0;
[0117]
步骤b4、根据损失值对应的感兴趣区域索引值找到对应的困难样本,输入到标准roi网络,输出为预测得到的分类结果和边界框的坐标,与标定的结果进行对比计算误差,反向传播更新整个网络参数,修正了整个目标检测网络,使得网络检测任务完成度更高。
[0118]
所述改进的非极大值抑制算法包括:
[0119]
步骤s1、将所有目标框按得分排序,认为当前得分最高的目标框m包含目标;
[0120]
步骤s2、计算剩余目标框与m的交并比,当目标框与m的交并比小于ni,认为当前目标框与m代表着两个不同的目标,保持原来得分;
[0121]
步骤s3、当目标框与m的交并比介于ni和n
t
之间时,则认为当前目标框和m可能是包含两个不同的目标,也可能是和m代表同一个目标,因此采用权值惩罚策略它和iou(m,bi)成反比,将得分降低且保留目标框,参加下一轮筛选;
[0122]
步骤s4、当目标框与m的交并比大于n
t
时,确定当前目标框和m代表一个目标,丢弃当前目标框;
[0123]
移动当前m至结果目标框集合内,剩余目标框组成新的集合,重复步骤s1至步骤s4,直到目标框集合为空,结束筛选,输出结果。
[0124]
表达式为:其中,n
t
为原阈值,ni为新增阈值。
[0125]
所述步骤一的方法为,电脑主机获取电力作业现场视频,并进行图像预处理,所述图像预处理包括:视频以一定帧率抽帧,然后对每一帧进行图像尺度归一化和图像标准化,得到目标检测网络的输入;
[0126]
步骤二中,训练完成的目标检测网络为以改进fasterr-cnn网络训练得到的改进的faster r-cnn网络模型。
[0127]
所述步骤c一中样本数据集中的标注包括以下安全帽佩戴状态的类别名称:佩戴红色安全帽人员、黄色安全帽人员、白色安全帽人员、蓝色安全帽人员和未佩戴安全帽人员;
[0128]
所述样本数据集中的标注以pascal voc格式的xml文件保存,所述xml文件可由python软件读取并用于训练。
[0129]
所述根据所述安全帽佩戴状态检测结果确定所述待识别图像中目标区域的人员身份,包括:
[0130]
从所述安全帽佩戴状态检测结果中获取第一特征,根据所述第一特征确定所述目标区域中的人员是否佩戴安全帽;
[0131]
此处的第一特征为安全帽佩戴状态。
[0132]
在人员佩戴安全帽的情况下,从所述安全帽佩戴状态检测结果中获取第二特征,根据所述第二特征确定人员身份。
[0133]
此处的第二特征为安全帽类别。
[0134]
所述方法还包括:在人员未佩戴安全帽的情况下,控制后台管理机构或电力作业现场的目标区域中的报警装置报警。
[0135]
一种电力作业现场安全帽检测及身份识别装置,用于电力作业现场安全帽检测及身份识别方法,所述装置包括:
[0136]
待识别图像获取模块,用于获取目标区域的待识别图像;
[0137]
安全帽检测模块,用于将所述待识别图像输入目标检测网络,获取所述目标检测网络输出的安全帽佩戴状态检测结果;
[0138]
身份识别模块,用于根据所述安全帽佩戴状态检测结果确定所述待识别图像中目标区域的人员身份。
[0139]
所述身份识别模块用于:
[0140]
从所述安全帽佩戴状态检测结果中获取第一特征,根据所述第一特征确定所述目标区域中的人员是否佩戴安全帽;
[0141]
在人员佩戴安全帽的情况下,从所述安全帽佩戴状态检测结果中获取第二特征,根据所述第二特征确定人员身份。
[0142]
电力作业现场安全帽检测及身份识别装置还包括报警控制模块,所述报警控制模块与后台管理机构或电力作业现场的目标区域中的报警装置相连,当所述身份识别模块检测到电力作业现场的目标区域中存在未佩戴安全帽的人员时,控制报警装置报警。
[0143]
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献