一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种安全员位置检测方法及系统与流程

2022-02-22 17:13:19 来源:中国专利 TAG:

技术特征:
1.一种安全员位置检测方法,其特征在于,获取基建场景下的实时图像;将实时图像输入到预先训练好的基于颜色空间转换融合神经网络模型;输出安全员位置信息。2.根据权利要求1所述的安全员位置检测方法,其特征在于,所述基于颜色空间转换融合神经网络模型的训练过程包括:通过摄像头采集待测量区域内的图像,对所采集的图像进行数据清洗,提取出有效的图像,框出安全员穿戴的安全马甲的图像区域并打上类别标签作为训练图像;将神经网络的53个卷积层在imagenet数据集上进行预训练,确定这些卷积层之间的权重;将训练图像输入到预训练后的神经网络,经过卷积层提取特征之后通过全连接层进行分类,根据损失函数算出预测值与真实值之间的损失,通过反向传播算法调整神经网络各个隐层的权重,当损失值下降到预先设置阈值时,停止训练,确定最终的神经网络。3.根据权利要求2所述的安全员位置检测方法,其特征在于,所述有效的图像为保留安全员红色马甲特征明显的图像。4.根据权利要求2所述的安全员位置检测方法,其特征在于,所述损失函数为:其中,λ
coord
表示定位损失权重,λ
noobj
表示不包含目标的网格的置信度损失权重,s2表示训练图像在预训练后的神经网络中,在逻辑上被分割成格子的个数,b表示每个格子预测的边界框个数,x,y,w,h,c,p
i
(c)分别是真实框的位置、框的宽度、框的高度、框中是否包含物体的置信度以及框中物体属于类别c的置信度,分别是预测框的位置、框的宽度、框的高度、框中是否包含物体的置信度以及框中物体属于类别c的置信度,i表示边界框中是否包含物体,i表示第i个格子,j表示第j个边界框,其中,是否包含物体,i表示第i个格子,j表示第j个边界框,其中,公式(1)中第一项代表坐标的误差,第二项代表边界框宽和高的误差,第三项代表边界框包含物体时的置信度误差,第四项代表边界框不包含物体时的置信度误差,第五项代表格子中包含物体的类别误差。
5.根据权利要求1所述的安全员位置检测方法,其特征在于,所述输出安全员位置信息的过程包括:获取利用基于颜色空间转换融合神经网络模型实时处理后得到的一个张量t,所述张量t包括预测框的位置以及类别信息;根据张量t对检测到的马甲区域进行hsv颜色空间转化,确定马甲的颜色;根据马甲的颜色确定马甲的区域,最终确定安全员的位置。6.根据权利要求5所述的安全员位置检测方法,其特征在于,所述张量t的具体确定过程包括:将图像逻辑上划分为若干个格子后,每一个格子含有的两个预测框;所述预测框分别记录着边界框的坐标x、y,边界框的大小w、h以及边界框是否包含物体的置信度c,每个格子还记录着物体属于不同类别的置信度c。7.根据权利要求5所述的安全员位置检测方法,其特征在于,所述根据张量t对检测到的马甲区域进行hsv颜色空间转化,确定马甲的颜色的过程包括:将rgb颜色空间转化为hsv颜色空间,亮度大于75%并且饱和度大于20%为亮彩色区域,亮度小于25%为黑色区域,亮度大于75%并且饱和度小于20%为白色区域,划分彩色和白色区域,得到hsv图像;对所得hsv图像进行二值化处理,然后进行闭运算,得到平滑轮廓后的图像;对得到平滑轮廓后的图像计算白色像素占边界框中所有像素的比值,确定马甲的区域。8.一种安全员位置检测系统,其特征在于,包括:获取模块,用于获取基建场景下的实时图像;输入模块,用于将实时图像输入到预先训练好的基于颜色空间转换融合神经网络模型;输出模块,用于输出安全员位置信息。9.根据权利要求8所述的安全员位置检测系统,其特征在于,所述输入模块包括模型预训练模块,所述模型预训练模块包括:采集模块,用于通过摄像头采集待测量区域内的图像,对所采集的图像进行数据清洗,提取出有效的图像,框出安全员穿戴的安全马甲的图像区域并打上类别标签作为训练图像;第一确定模块,用于将神经网络的53个卷积层在imagenet数据集上进行预训练,确定这些卷积层之间的权重;第二确定模块,用于将训练图像输入到预训练后的神经网络,经过卷积层提取特征之后通过全连接层进行分类,根据损失函数算出预测值与真实值之间的损失,通过反向传播算法调整神经网络各个隐层的权重,当损失值下降到预先设置阈值时,停止训练,确定最终的神经网络。10.根据权利要求9所述的安全员位置检测系统,其特征在于,所述第二确定模块包括函数确定模块,用于确定所述损失函数为:
其中,λ
coord
表示定位损失权重,λ
noobj
表示不包含目标的网格的置信度损失权重,s2表示训练图像在预训练后的神经网络中,在逻辑上被分割成格子的个数,b表示每个格子预测的边界框个数,x,y,w,h,c,p
i
(c)分别是真实框的位置、框的宽度、框的高度、框中是否包含物体的置信度以及框中物体属于类别c的置信度,分别是预测框的位置、框的宽度、框的高度、框中是否包含物体的置信度以及框中物体属于类别c的置信度,i表示边界框中是否包含物体,i表示第i个格子,j表示第j个边界框,其中,是否包含物体,i表示第i个格子,j表示第j个边界框,其中,公式(1)中第一项代表坐标的误差,第二项代表边界框宽和高的误差,第三项代表边界框包含物体时的置信度误差,第四项代表边界框不包含物体时的置信度误差,第五项代表格子中包含物体的类别误差。11.根据权利要求8所述的安全员位置检测系统,其特征在于,所述输出模块包括:张量获取模块,用于获取利用基于颜色空间转换融合神经网络模型实时处理后得到的一个张量t,所述张量t包括预测框的位置以及类别信息;颜色确定模块,用于根据张量t对检测到的马甲区域进行hsv颜色空间转化,确定马甲的颜色;位置确定模块,用于根据马甲的颜色确定马甲的区域,最终确定安全员的位置。12.根据权利要求11所述的安全员位置检测系统,其特征在于,所述张量获取模块包括张量确定模块,用于将图像逻辑上划分为若干个格子后,每一个格子含有的两个预测框;所述预测框分别记录着边界框的坐标x、y,边界框的大小w、h以及边界框是否包含物体的置信度c,每个格子还记录着物体属于不同类别的置信度c。13.根据权利要求11所述的安全员位置检测系统,其特征在于,所述颜色确定模块包括:转化模块,用于将rgb颜色空间转化为hsv颜色空间,亮度大于75%并且饱和度大于20%为亮彩色区域,亮度小于25%为黑色区域,亮度大于75%并且饱和度小于20%为白色区域,划分彩色和白色区域,得到hsv图像;计算处理模块,用于对所得hsv图像进行二值化处理,然后进行闭运算,得到平滑轮廓
后的图像;区域确定模块,用于对得到平滑轮廓后的图像计算白色像素占边界框中所有像素的比值,确定马甲的区域。

技术总结
本发明公开了一种安全员位置检测方法及系统,获取基建场景下的实时图像;将实时图像输入到预先训练好的基于颜色空间转换融合神经网络模型;输出安全员位置信息。优点:本发明只需要安装一个摄像头即可实现,创造性的引入神经网络的方法,通过计算机迭代训练得出安全员的具体特征能够准确地识别出安全员的具体位置。本发明节省人力资源,且受环境因素影响较小,具有很好的稳定性以及鲁棒性。具有很好的稳定性以及鲁棒性。具有很好的稳定性以及鲁棒性。


技术研发人员:席丁鼎 罗旺 白义传 胡牧 陈骏 张佩 吴超 夏源 吴钰芃
受保护的技术使用者:南京南瑞信息通信科技有限公司
技术研发日:2020.07.17
技术公布日:2022/2/7
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献