一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种基于视觉的生产线管控方法及装置、系统、电子设备

2022-06-02 17:04:04 来源:中国专利 TAG:


1.本技术涉及机器视觉技术领域,尤其涉及一种基于视觉的生产线管控方法及装置、系统、电子设备。


背景技术:

2.在工业生产车间中,一些重要的生产流水线工序需要严格的流程管控。一般不希望某些关键的流水线上有产品被取走或者中途放入,这样会对后续的生产工序带来隐患,很有可能会影响产品品质,进而需要对生产线上违规取出产品和放入产品进行识别。同时,生产线周围相关人员的一些危险动作也需要被及时识别,避免带来各种隐患,降低人员受伤和设备受损的风险。
3.针对违规取放产品识别,传统的解决方案中一般可以选择在硬件上进行管控,即在流水线上添加限制人为取放的硬件设施等,并进行相应的报警提示。然而随着生产线的复杂化,以及不同生产产品的工序要求不同,不再适合随意添加相应的硬件限制设备。此外硬件限制设备不便于管理人员追溯和确认。
4.另一方面,针对生产线周围相关人员的危险动作识别,一般使用的是监控网络摄像头进行画面监控,借助动作识别算法进行判断,传统的网络摄像头在一些动态范围较大的车间内不易获取到高画面质量的图像,并且对一些特殊的快速运动的异常动作容易出现运动模糊,这些都不利于动作识别算法的计算处理。


技术实现要素:

5.本技术实施例的目的是提供一种基于视觉的生产线管控方法及装置、系统、电子设备,以解决相关技术中存在的生产线不方便添加硬件限制设备,不便于追溯和确认违规取放情况,以及动态范围较大的车间中传统网络摄像头动作识别算法容易出错的技术问题。
6.根据本技术实施例的第一方面,提供一种基于视觉的生产线管控方法,包括:
7.获取网络摄像头采集的第一实时视频流,所述网络摄像头至少有一个,每个所述网络摄像头的视野仅包含生产线上的开放区域,各个开放区域互不相交;
8.在所述第一实时视频流中,每隔t帧通过已训练的取放识别神经网络对当前关键帧i0进行一次分类预测;
9.若神经网络分类输出为正常工作类,则继续进行下一次预测;
10.若神经网络分类输出为异常取放类,则继续采集下一关键帧i1,通过i0和i1计算稠密光流f,统计f的方向分布;
11.若f的方向分布中,落在取出角度下界θ1和取出角度上界θ2组成的区间[θ1,θ2]的占比大于取出识别阈值g,则此次违规异常为取出产品;
[0012]
若f的方向分布中,落在放入角度下界θ3和放入角度上界θ4组成的区间[θ3,θ4]的占比大于放入识别阈值p,则此次违规异常为放入产品;
[0013]
获取事件相机采集的第一实时事件流,所述事件相机的视野包含生产线附近的可活动区域,将所述第一实时事件流中每e个事件累计成一张事件帧图像,将所述事件帧图像存入时间窗口队列中;
[0014]
通过已训练的动作识别神经网络对所述时间窗口队列进行预测,识别是否出现危险动作。
[0015]
进一步地,已训练的取放识别神经网络的训练过程包括如下步骤:
[0016]
从生产线多段视频中提取帧图像画面,制作数据集;
[0017]
提取生产线上正常工作时的帧图像画面,作为所述数据集的正常工作类;
[0018]
提取生产线上有异常取放发生瞬间的帧图像画面,作为所述数据集的异常取放类;
[0019]
使用所述数据集训练分类神经网络,达到所需的相应准确率,得到所述已训练的取放识别神经网络。
[0020]
进一步地,通过i0和i1计算稠密光流f,统计f的方向分布,包括如下步骤:
[0021]
通过光流计算方法,从画面相近且画面存在运动变化的两帧图像i0和i1计算出稠密光流f,计算出所述稠密光流f的每一像素点的光流方向参数数值,统计所有像素点的光流方向参数数值在不同角度区间的占比。
[0022]
进一步地,将事件帧图像存入时间窗口队列中,包括如下步骤:
[0023]
设置一个长度为le的时间窗口队列,初始值全部置为0;
[0024]
在所述第一实时事件流中,每累计e个事件得到一张事件帧图像,存入所述时间窗口队列,实时得到存满事件帧图像的时间窗口队列。
[0025]
进一步地,已训练的动作识别神经网络的训练过程包括如下步骤:
[0026]
对所述事件相机获取生产线附近的可活动区域发生一般正常动作的事件流信息和发生特殊危险动作的事件流信息分别保存;
[0027]
在各段事件流中以每e个事件累计成一张帧图像,生成包含动作信息的视频,制作数据集,数据集包含正常动作类事件帧视频和各种异常动作类事件帧视频;
[0028]
使用所述数据集训练动作识别神经网络,达到所需的相应准确率,得到所述已训练的动作识别神经网络。
[0029]
进一步地,还包括:
[0030]
在所述事件相机持续工作时,当所述事件相机在时间间隔δt内输出的事件数量大于触发阈值e
t
时,触发已训练的取放识别神经网络和已训练的动作识别神经网络工作;
[0031]
在延迟时间间隔δt内,若所述事件相机一直保持在时间间隔δt内输出的事件数量小于触发阈值e
t
,则已训练的取放识别神经网络和已训练的动作识别神经网络暂停工作,等待下一次触发启动。
[0032]
根据本技术实施例的第二方面,提供一种基于视觉的生产线管控装置,包括:
[0033]
获取模块,用于获取网络摄像头采集的第一实时视频流,所述网络摄像头至少有一个,每个所述网络摄像头的视野仅包含生产线上的开放区域,各个开放区域互不相交;
[0034]
第一预测模块,用于在所述第一实时视频流中,每隔t帧通过已训练的取放识别神经网络对当前关键帧i0进行一次分类预测;
[0035]
第一判断模块,用于若神经网络分类输出为正常取放类,则继续进行下一次预测;
[0036]
第二判断模块,用于若神经网络分类输出为异常取放类,则继续采集下一关键帧i1,通过i0和i1计算稠密光流f,统计f的方向分布;
[0037]
第三判断模块,用于若f的方向分布中,落在取出角度下界θ1和取出角度上界θ2组成的区间[θ1,θ2]的占比大于取出识别阈值g,则此次违规异常为取出产品;
[0038]
第四判断模块,用于若f的方向分布中,落在放入角度下界θ3和放入角度上界θ4组成的区间[θ3,θ4]的占比大于放入识别阈值p,则此次违规异常为放入产品;
[0039]
获取存放模块,用于获取事件相机采集的第一实时事件流,所述事件相机的视野包含生产线附近的可活动区域,将所述第一实时事件流中每e个事件累计成一张事件帧图像,将所述事件帧图像存入时间窗口队列中;
[0040]
第二预测模块,用于通过已训练的动作识别神经网络对所述时间窗口队列进行预测,识别是否出现危险动作。
[0041]
根据本技术实施例的第三方面,提供一种基于视觉的生产线管控系统,包括:
[0042]
至少一个网络摄像头,用于采集第一实时视频流,每个所述网络摄像头的视野仅包含生产线上的开放区域,各个开放区域互不相交;
[0043]
一个事件相机,用于采集第一实时事件流,所述事件相机的视野包含生产线附近的可活动区域;
[0044]
交换机,用于将所述第一实时视频流传递给处理器;
[0045]
处理器,用于获取网络摄像头采集的第一实时视频流,在所述第一实时视频流中,每隔t帧通过已训练的取放识别神经网络对当前关键帧i0进行一次分类预测;若神经网络分类输出为正常工作类,则继续进行下一次预测;若神经网络分类输出为异常取放类,则继续采集下一关键帧i1,通过i0和i1计算稠密光流f,统计f的方向分布;若f的方向分布中,落在取出角度下界θ1和取出角度上界θ2组成的区间[θ1,θ2]的占比大于取出识别阈值g,则此次违规异常为取出产品;若f的方向分布中,落在放入角度下界θ3和放入角度上界θ4组成的区间[θ3,θ4]的占比大于放入识别阈值p,则此次违规异常为放入产品;获取事件相机采集的第一实时事件流,将所述第一实时事件流中每e个事件累计成一张事件帧图像,将所述事件帧图像存入时间窗口队列中;通过已训练的动作识别神经网络对所述时间窗口队列进行预测,识别是否出现危险动作。
[0046]
根据本技术实施例的第四方面,提供一种电子设备,包括:
[0047]
一个或多个处理器;
[0048]
存储器,用于存储一个或多个程序;
[0049]
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面所述的方法。
[0050]
根据本技术实施例的第五方面,提供一种处理器可读存储介质,其上存储有处理器指令,该指令被处理器执行时实现如第一方面所述方法的步骤。
[0051]
本技术的实施例提供的技术方案可以包括以下有益效果:
[0052]
根据以上技术方案,本技术采用网络摄像头获取生产线上开放区域画面进行违规取放识别报警,从而避免了复杂产线上硬件限制设备的添加;
[0053]
采用了取放识别神经网络进行画面判断,从而识别效果稳定,对生产线上多个开放区域产品的违规取放能够达到较高的识别准确率;
[0054]
采用事件相机进行车间内危险动作的识别,克服了传统网络摄像头在一些动态范围较大的车间内获取的图像质量欠佳,动作识别算法不稳定的问题,进而可以更好地适应多种动态范围的车间场景画面进行监控,可以有效进行动作识别;
[0055]
采用事件相机作为违规取放识别和危险动作识别的触发,克服了一些监控摄像头或者其他限制设备的使用只能全天候工作,在生产线旁无人的情况下效率很低的问题,进而只在有潜在异常发生时进行处理识别,使得管控方法资源利用效率高;
[0056]
采用网络摄像头和事件相机作为管控的核心传感器,可以记录下违规取放和危险动作发生时的画面,进而可以对生产线状态进行交互管控,便于追溯和确认。
[0057]
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本技术。
附图说明
[0058]
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本技术的实施例,并与说明书一起用于解释本技术的原理。
[0059]
图1是根据一示例性实施例示出的一种基于视觉的生产线管控方法的流程图。
[0060]
图2是根据一示例性实施例示出的一种基于视觉的生产线管控系统的示意图。
[0061]
图3是根据一示例性实施例示出的一种基于视觉的生产线管控装置的框图。
具体实施方式
[0062]
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本技术相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本技术的一些方面相一致的装置和方法的例子。
[0063]
在本技术使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本技术。在本技术和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
[0064]
应当理解,尽管在本技术可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本技术范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在
……
时”或“当
……
时”或“响应于确定”。
[0065]
图1是根据一示例性实施例示出的一种基于视觉的生产线管控方法的流程图。参考图1,该方法可以包括:
[0066]
步骤s11,获取网络摄像头采集的第一实时视频流,所述网络摄像头至少有一个,每个所述网络摄像头的视野仅包含生产线上的开放区域,各个开放区域互不相交;
[0067]
步骤s12,在所述第一实时视频流中,每隔t帧通过已训练的取放识别神经网络对当前关键帧i0进行一次分类预测;
[0068]
步骤s13,若神经网络分类输出为正常工作类,则继续进行下一次预测;
[0069]
步骤s14,若神经网络分类输出为异常取放类,则继续采集下一关键帧i1,通过i0和i1计算稠密光流f,统计f的方向分布;
[0070]
步骤s15,若f的方向分布中,落在取出角度下界θ1和取出角度上界θ2组成的区间[θ1,θ2]的占比大于取出识别阈值g,则此次违规异常为取出产品;
[0071]
步骤s16,若f的方向分布中,落在放入角度下界θ3和放入角度上界θ4组成的区间[θ3,θ4]的占比大于放入识别阈值p,则此次违规异常为放入产品;
[0072]
步骤s17,获取事件相机采集的第一实时事件流,所述事件相机的视野包含生产线附近的可活动区域,将所述第一实时事件流中每e个事件累计成一张事件帧图像,将所述事件帧图像存入时间窗口队列中;
[0073]
步骤s18,通过已训练的动作识别神经网络对所述时间窗口队列进行预测,识别是否出现危险动作。
[0074]
由上述实施例可知,本技术采用网络摄像头获取生产线上开放区域画面进行违规取放识别报警,从而避免了复杂产线上硬件限制设备的添加;采用了取放识别神经网络进行画面判断,从而识别效果稳定,对生产线上多个开放区域产品的违规取放能够达到较高的识别准确率;采用事件相机进行车间内危险动作的识别,克服了传统网络摄像头在一些动态范围较大的车间内获取的图像质量欠佳,动作识别算法不稳定的问题,进而可以更好地适应多种动态范围的车间场景画面进行监控,可以有效进行动作识别;采用网络摄像头和事件相机作为管控的核心传感器,可以记录下违规取放和危险动作发生时的画面,进而可以对生产线状态进行交互管控,便于追溯和确认。
[0075]
在步骤s11的具体实施中,获取网络摄像头采集的第一实时视频流,所述网络摄像头至少有一个,每个所述网络摄像头的视野仅包含生产线上的开放区域,各个开放区域互不相交。
[0076]
具体地,参考图2,在生产线1的开放区域(图中示例其中两个):第一开放区域2和第二开放区域3,布置的第一网络摄像头4和第二网络摄像头5,调整第一网络摄像头4的位置和角度使其视野画面几乎只有第一开放区域2,调整第二网络摄像头5的位置和角度使其视野画面几乎只有第二开放区域3。
[0077]
在步骤s12的具体实施中,在所述第一实时视频流中,每隔t帧通过已训练的取放识别神经网络对当前关键帧i0进行一次分类预测。
[0078]
具体地,在帧率为fps的实时视频流中,每隔t帧将当前关键帧i0输入已训练的取放识别神经网络,所述已训练的取放识别神经网络输出结果为正常工作类或异常取放类,并非每一帧都进行处理预测,这样可以省略高帧率的冗余信息,同时满足实时性。
[0079]
本实施例中,已训练的取放识别神经网络的训练过程包括如下步骤:
[0080]
a1,从生产线多段视频中提取帧图像画面,制作数据集;
[0081]
a2,提取生产线上正常工作时的帧图像画面,作为所述数据集的正常工作类;
[0082]
a3,提取生产线上有异常取放发生瞬间的帧图像画面,作为所述数据集的异常取放类;
[0083]
a4,使用所述数据集训练分类神经网络,达到所需的相应准确率,得到所述已训练的取放识别神经网络。
[0084]
采用已训练的取放识别神经网络进行画面判断,可以使识别效果稳定,对生产线
上多个开放区域普适性更好,同时能够达到较高的识别准确率。
[0085]
在步骤s13的具体实施中,若神经网络分类输出为正常工作类,则继续进行下一次预测。
[0086]
具体地,若神经网络分类输出为正常工作类,则继续在当前状态运行,持续进行下一次关键帧的获取并预测,表示当前没有异常发生。
[0087]
在步骤s14的具体实施中,若神经网络分类输出为异常取放类,则继续采集下一关键帧i1,通过i0和i1计算稠密光流f,统计f的方向分布。
[0088]
具体地,若神经网络分类输出为异常取放类,则借助下一次采集的关键帧i1和当前关键帧i0,计算光流,区分取出异常和放入异常;只在神经网络分类输出为异常取放类时,进行光流计算,输出为正常工作类时并不进行光流计算,可以尽可能减少系统的计算消耗,从而满足实时检测和报警。
[0089]
进一步地,通过i0和i1计算稠密光流f,统计f的方向分布,包括如下步骤:
[0090]
通过光流计算方法,从画面相近且画面存在运动变化的两帧图像i0和i1计算出稠密光流f,计算出所述稠密光流f的每一像素点的光流方向参数数值,统计所有像素点的光流方向参数数值在不同角度区间的占比。
[0091]
光流的方向表示的是画面中物体运动的方向,不同角度区间的占比可以反应出产品的运动趋势,取出和放入是两个有明显运动方向差别的异常类别,通过稠密光流的计算和统计可以有效地区分出是取出或者放入产品。
[0092]
在步骤s15的具体实施中,若f的方向分布中,落在取出角度下界θ1和取出角度上界θ2组成的区间[θ1,θ2]的占比大于取出识别阈值g,则此次违规异常为取出产品。
[0093]
具体地,设置取出角度下界θ1和取出角度上界θ2,并设置取出识别阈值g,若f的方向分布中落在区间[θ1,θ2]的占比大于取出识别阈值g,则表示该次异常满足取出产品时的光流结果,可以认为此次违规异常为取出产品。
[0094]
在步骤s16的具体实施中,若f的方向分布中,落在放入角度下界θ3和放入角度上界θ4组成的区间[θ3,θ4]的占比大于放入识别阈值p,则此次违规异常为放入产品。
[0095]
具体地,设置放入角度下界θ3和放入角度上界θ4,并设置放入识别阈值p,若f的方向分布中落在区间[θ3,θ4]的占比大于放入识别阈值p,则表示该次异常满足放入产品时的光流结果,可以认为此次违规异常为放入产品。
[0096]
在步骤s17的具体实施中,获取事件相机采集的第一实时事件流,所述事件相机的视野包含生产线附近的可活动区域,将所述第一实时事件流中每e个事件累计成一张事件帧图像,将所述事件帧图像存入时间窗口队列中。
[0097]
具体地,参考图2,事件相机7可以捕获生产线1附近可活动区域的运动信息,输出一定数量的事件对应生产线1附近可活动区域当前有人员活动发生,可能出现潜在异常,进行识别判断。
[0098]
进一步地,将事件帧图像存入时间窗口队列中,包括如下步骤:
[0099]
设置一个长度为le的时间窗口队列,初始值全部置为0;
[0100]
在所述第一实时事件流中,每累计e个事件得到一张事件帧图像,存入所述时间窗口队列,实时得到存满事件帧图像的时间窗口队列。
[0101]
时间窗口队列实时保存了当前发生动作的时序信息,事件帧图像保存了当前发生
动作的空间信息,完整的时间窗口队列可以有效被已训练的动作识别神经网络进行处理预测,从而得到动作识别结果。使用时间窗口队列可以满足危险动作的实时识别。
[0102]
在步骤s18的具体实施中,通过已训练的动作识别神经网络对所述时间窗口队列进行预测,识别是否出现危险动作。
[0103]
具体地,动作识别神经网络可以对符合条件的时间窗口队列进行预测,得到动作识别结果,将存满事件帧图像的时间窗口队列输入已训练的动作识别神经网络,所述已训练的动作识别神经网络将输出动作识别结果,从而判断有无待识别的危险动作发生。
[0104]
进一步地,已训练的动作识别神经网络的训练过程包括如下步骤:
[0105]
对所述事件相机获取生产线附近的可活动区域发生一般正常动作的事件流信息和发生特殊危险动作的事件流信息分别保存;
[0106]
在各段事件流中以每e个事件累计成一张帧图像,生成包含动作信息的视频,制作数据集,数据集包含正常动作类事件帧视频和各种异常动作类事件帧视频;
[0107]
使用所述数据集训练动作识别神经网络,达到所需的相应准确率,得到所述已训练的动作识别神经网络。
[0108]
事件相机具有低延迟,高动态范围的特点,在一些动态范围较大的车间场景下,以及易产生运动模糊的快速动作发生的情况下,可以很好地进行动作识别。
[0109]
进一步地,本发明实施例提供的一种基于视觉的生产线管控方法还可包括:
[0110]
步骤s19,在所述事件相机持续工作时,当所述事件相机在时间间隔δt内输出的事件数量大于触发阈值e
t
时,触发已训练的取放识别神经网络和已训练的动作识别神经网络工作;
[0111]
具体地,参考图2,事件相机7可以捕获生产线1附近可活动区域的运动信息,输出的事件数量多对应当前有人员活动发生,可能出现潜在异常,需要运行算法进行识别判断。以事件相机7输出的事件数量作为系统的触发条件,设置时间间隔δt和触发阈值e
t
,当所述事件相机在时间间隔δt内输出的事件数量大于触发阈值e
t
时,已训练的取放识别神经网络和已训练的动作识别神经网络开始工作,进行相应的预测判断。
[0112]
步骤s20,在延迟时间间隔δt内,若所述事件相机一直保持在时间间隔δt内输出的事件数量小于触发阈值e
t
,则已训练的取放识别神经网络和已训练的动作识别神经网络暂停工作,等待下一次触发启动。
[0113]
具体地,设置延迟时间间隔δt,若所述事件相机在延迟时间间隔δt内,一直保持在时间间隔δt内输出的事件数量小于触发阈值e
t
,表示当前区域内一段时间都没有人员活动,已训练的取放识别神经网络和已训练的动作识别神经网络暂停工作,等待下一次触发启动,从而系统不需要全天候工作,只在有潜在异常发生时进行处理识别,进而使得管控方法资源利用效率高。
[0114]
本发明实施例还提供一种基于视觉的生产线管控系统,参考图2,该系统可以包括:
[0115]
至少一个网络摄像头,用于采集第一实时视频流,每个所述网络摄像头的视野仅包含生产线上的开放区域,各个开放区域互不相交;
[0116]
一个事件相机,用于采集第一实时事件流,所述事件相机的视野包含生产线附近的可活动区域;
[0117]
交换机,用于将所述第一实时视频流传递给处理器;
[0118]
处理器,用于获取网络摄像头采集的第一实时视频流,在所述第一实时视频流中,每隔t帧通过已训练的取放识别神经网络对当前关键帧i0进行一次分类预测;若神经网络分类输出为正常工作类,则继续进行下一次预测;若神经网络分类输出为异常取放类,则继续采集下一关键帧i1,通过i0和i1计算稠密光流f,统计f的方向分布;若f的方向分布中,落在取出角度下界θ1和取出角度上界θ2组成的区间[θ1,θ2]的占比大于取出识别阈值g,则此次违规异常为取出产品;若f的方向分布中,落在放入角度下界θ3和放入角度上界θ4组成的区间[θ3,θ4]的占比大于放入识别阈值p,则此次违规异常为放入产品;获取事件相机采集的第一实时事件流,将所述第一实时事件流中每e个事件累计成一张事件帧图像,将所述事件帧图像存入时间窗口队列中;通过已训练的动作识别神经网络对所述时间窗口队列进行预测,识别是否出现危险动作。
[0119]
具体地,参考图2,以两个网络摄像头为例,将第一网络摄像头4和第二网络摄像头5连接到网络交换机6,并将网络交换机6与处理器8相连;
[0120]
在生产线1附近布置事件相机7,调整事件相机7的位置和角度使其视野画面包括生产线1附近的可活动区域。将事件相机7连接到处理器8;
[0121]
处理器8将各种处理分析结果记录保存,也可进一步发送给移动终端9。
[0122]
以第一开放区域2和第一网络摄像头4为例(第二开放区域3和第二网络摄像头5等算法相同),对违规取放进行识别的具体内容为:
[0123]
处理器8获取第一网络摄像头4采集的第一开放区域2的实时视频流,在帧率为fps的所述实时视频流中,每隔t帧通过已训练的取放识别神经网络对当前关键帧i0进行一次分类预测;
[0124]
若神经网络分类输出为正常工作类,则继续进行下一次预测;
[0125]
若神经网络分类输出为异常取放类,则继续采集下一关键帧i1,通过i0和i1计算稠密光流f,统计f的方向分布;
[0126]
若f的方向分布中,落在取出角度下界θ1和取出角度上界θ2组成的区间[θ1,θ2]的占比大于取出识别阈值g,则此次违规异常为取出产品,处理器8将处理分析结果记录保存,也可进一步发送给移动终端9;
[0127]
若f的方向分布中,落在放入角度下界θ3和放入角度上界θ4组成的区间[θ3,θ4]的占比大于放入识别阈值p,则此次违规异常为放入产品,处理器8将处理分析结果记录保存,也可进一步发送给移动终端9。
[0128]
由上述实施例可知,第一网络摄像头4可以获取生产线1上第一开放区域2的画面进行违规取放识别报警,同时处理器8可以对异常画面进行记录保存,也可进一步发送给移动终端9,管理人员可以查看相关的画面等信息,便于追溯和确认。采用了取放识别神经网络进行画面判断,并在判断出异常结果时,进行下一关键帧获取,计算稠密光流f,统计f的方向分布,区分出了取出和放入两种状态。
[0129]
具体地,在帧率为fps的实时视频流中,每隔t帧进行一次神经网络分类预测,可以省略高帧率的冗余信息,同时,只在预测为异常类时,进行光流计算,可以尽可能减少系统的计算消耗,从而满足实时检测和报警。
[0130]
以事件相机7和生产线1为例,对危险动作进行识别的具体内容为:
[0131]
处理器8获取事件相机7采集的生产线1附近的可活动区域实时事件流,将所述实时事件流中每e个事件累计成一张事件帧图像,将所述事件帧图像存入时间窗口队列中;
[0132]
通过已训练的动作识别神经网络对所述时间窗口队列进行预测,识别是否出现危险动作。
[0133]
由上述实施例可知,本技术采用事件相机进行车间内危险动作的识别,克服了传统网络摄像头在一些动态范围较大的车间内获取的图像质量欠佳,动作识别算法不稳定的问题,进而可以更好地适应多种动态范围的车间场景画面进行监控,可以有效进行动作识别,使用时间窗口队列可以满足危险动作的实时识别。
[0134]
与前述的基于视觉的生产线管控方法的实施例相对应,本技术还提供了基于视觉的生产线管控装置的实施例。
[0135]
图3是根据一示例性实施例示出的一种基于视觉的生产线管控装置框图。
[0136]
参照图3,该装置包括:
[0137]
获取模块21,用于获取网络摄像头采集的第一实时视频流,所述网络摄像头至少有一个,每个所述网络摄像头的视野仅包含生产线上的开放区域,各个开放区域互不相交;
[0138]
第一预测模块22,用于在所述第一实时视频流中,每隔t帧通过已训练的取放识别神经网络对当前关键帧i0进行一次分类预测;
[0139]
第一判断模块23,用于若神经网络分类输出为正常取放类,则继续进行下一次预测;
[0140]
第二判断模块24,用于若神经网络分类输出为异常取放类,则继续采集下一关键帧i1,通过i0和i1计算稠密光流f,统计f的方向分布;
[0141]
第三判断模块25,用于若f的方向分布中,落在取出角度下界θ1和取出角度上界θ2组成的区间[θ1,θ2]的占比大于取出识别阈值g,则此次违规异常为取出产品;
[0142]
第四判断模块26,用于若f的方向分布中,落在放入角度下界θ3和放入角度上界θ4组成的区间[θ3,θ4]的占比大于放入识别阈值p,则此次违规异常为放入产品;
[0143]
获取存放模块27,用于获取事件相机采集的第一实时事件流,所述事件相机的视野包含生产线附近的可活动区域,将所述第一实时事件流中每e个事件累计成一张事件帧图像,将所述事件帧图像存入时间窗口队列中;
[0144]
第二预测模块28,用于通过已训练的动作识别神经网络对所述时间窗口队列进行预测,识别是否出现危险动作。
[0145]
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
[0146]
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本技术方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
[0147]
相应的,本技术还提供一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序;当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或
多个处理器实现如上述的一种基于视觉的生产线管控方法。
[0148]
相应的,本技术还提供一种计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现如上述的一种基于视觉的生产线管控方法。
[0149]
本领域技术人员在考虑说明书及实践这里公开的内容后,将容易想到本技术的其它实施方案。本技术旨在涵盖本技术的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本技术的一般性原理并包括本技术未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本技术的真正范围和精神由权利要求指出。
[0150]
应当理解的是,本技术并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本技术的范围仅由所附的权利要求来限制。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献