一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

结构模态参数识别方法、装置、计算机设备及存储介质与流程

2022-02-20 02:15:42 来源:中国专利 TAG:


1.本发明涉及一种结构模态参数识别方法、装置、计算机设备及存储介质,属于结构健康监测领域。


背景技术:

2.结构动力特性识别以其方便、快捷、易实现等特点在土木工程结构领域得到了广泛应用。结构动力特性是结构本身所固有的动力性能,结构破坏将导致其物理特性(刚度,质量和阻尼)发生变化,然后导致其模态参数发生变化[1]。而模态辨识是基于一组结构响应数据获得动力特效系统模型的过程。在模态辨识实践中,结构响应通常使用传感器获取,但是其通常需要繁琐的安装和昂贵的设备。
[0003]
近些年来,随着图像数据采集和计算机视觉技术发展,基于视频监测的方法已经成为结构系统参数识别的一种简便方法
[2]-[8]
。目前基于视觉技术系统辨识大部分选择固定相机作为拍摄设备,但这些方法也忽略了相机运动引起的误差。研究人员已尝试通过在背景中使用固定物体(例如建筑物和山脉)来补偿相机运动引起的误差
[9][10]
。此外这些方法通常需要将摄像机固定在与被测物体距离适当的位置上。而在实际工程中,很难找到合适的位置放置摄像。而放置在远距离拍摄时,相机镜头角度产生微小变化将引起较大的测量误差[11]。
[0004]
基于此,研究人员尝试使用无人机替代固定摄像机获取结构动力特性
[12][13]
。由于无人机容易受到风的影响,在获取结构响应过程中存在相机运动问题,因此测得结构位移是相对于无人机位移,而不是结构振动的绝对位移,此外无人机沿z方向运动会影响图像尺度变化。khuc
[14]
通过背景中已知固定物体来补偿无人机的运动位移,结合特征点匹配算法获取结构动力特性。yoon
[15]
使用光流法直接从无人机的视频图像直接获得的相对位移进行系统识别。值得说明的是,上述研究都是在理想的测量条件下应用,需要稳定的光照环境和气流环境,未考虑光照和有风环境等干扰对测量结果的影响。
[0005]
此外,基于已知结构系统输入输出信号的实验模态分析方法可以获取准确的模态参数,对大体量实际工程结构进行人为激励来获取其响应信号的难度较大。因此基于输入输出信号数据的实验模态分析方法在实际工程中难以广泛应用。
[0006]
参考文献如下:
[0007]
[1]fengd,fengmq.computervisionforshmofcivilinfrastructure:fromdynamicresponsemeasurementtodamagedetection

areview[j].engineeringstructures,2018,156:105-117.
[0008]
[2]spencerjrbf,hoskerev,narazakiy.advancesincomputervision-basedcivilinfrastructureinspectionandmonitoring[j].engineering,2019,5(2):199-222.
[0009]
[3]kimh,shins.reliabilityverificationofavision-baseddynamicdisplacementmeasurementforsystemidentification[j].journalofwind
engineeringandindustrialaerodynamics,2019,191:22-31.
[0010]
[4]narazaki,yasutaka,hoskere,etal.freevibration-basedsystemidentificationusingtemporalcross-correlations[j].structuralcontrolandhealthmonitoring,2018,25(8):e2207.
[0011]
[5]chayj,chenjg,o.output-onlycomputervisionbaseddamagedetectionusingphase-basedopticalflowandunscentedkalmanfilters[j].engineeringstructures,2017,132:300-313.
[0012]
[6]yangy,dornc,mancinit,etal.blindidentificationoffull-fieldvibrationmodesofoutput-onlystructuresfromuniformly-sampled,possiblytemporally-aliased(sub-nyquist),videomeasurements[j].journalofsoundandvibration,2017,390:232-256.
[0013]
[7]fengd,fengmq.experimentalvalidationofcost-effectivevision-basedstructuralhealthmonitoring[j].mechanicalsystemsandsignalprocessing,2017,88:199-211.
[0014]
[8]fengd,fengmq.vision-basedmulti-pointdisplacementmeasurementforstructuralhealthmonitoring[j].structuralcontrolandhealthmonitoring,2016,23(5):876-890.
[0015]
[9]kimsw,jeonbg,kimns,etal.vision-basedmonitoringsystemforevaluatingcabletensileforcesonacable-stayedbridge[j].structuralhealthmonitoring,2013,12(5-6):440-456.
[0016]
[10]chenjg,davisa,wadhwan,etal.videocamera

basedvibrationmeasurementforcivilinfrastructureapplications[j].journalofinfrastructuresystems,2017,23(3):b4016013.
[0017]
[11]leej,leekc,jeongs,etal.long-termdisplacementmeasurementoffull-scalebridgesusingcameraego-motioncompensation[j].mechanicalsystemsandsignalprocessing,2020,140:106651.
[0018]
[12]hoskerev,parkjw,yoonh,etal.vision-basedmodalsurveyofcivilinfrastructureusingunmannedaerialvehicles[j].journalofstructuralengineering,2019,145(7):04019062.
[0019]
[13]yoonh,shinj,spencerjrbf.structuraldisplacementmeasurementusinganunmannedaerialsystem[j].computer-aidedcivilandinfrastructureengineering,2018,33(3):183-192.
[0020]
[14]khuct,nguyenta,daoh,etal.swayingdisplacementmeasurementforstructuralmonitoringusingcomputervisionandanunmannedaerialvehicle[j].measurement,2020,159:107769.
[0021]
[15]yoonh,hoskerev,parkjw,etal.cross-correlation-basedstructuralsystemidentificationusingunmannedaerialvehicles[j].sensors,2017,17(9):2075.


技术实现要素:

[0022]
有鉴于此,本发明提供了一种结构模态参数识别方法、装置、计算机设备及存储 介质,其使用运动增强时空上下文矩阵算法,实现了从无人机拍摄的结构振动视频提 取结构的模态参数,通过时空边缘自适应检测算法,修正图像尺度变化的大小,运用 随机子空间法直接分析结构的响应数据,运用空间投影可以将数据不相关的噪声信号 剔除,方便快捷地获取结构的动力特性。
[0023]
本发明的第一个目的在于提供一种结构模态参数识别方法。
[0024]
本发明的第二个目的在于提供一种结构模态参数识别装置。
[0025]
本发明的第三个目的在于提供一种计算机设备。
[0026]
本发明的第四个目的在于提供一种存储介质。
[0027]
本发明的第一个目的可以通过采取如下技术方案达到:
[0028]
一种结构模态参数识别方法,所述方法包括:
[0029]
获取无人机拍摄的结构振动视频,并进行相机标定;
[0030]
针对相机标定后的结构振动视频,采用运动增强时空上下文矩阵算法,提取结构 基于无人机相机运动的相对运动位移;
[0031]
采用时空边缘自适应检测算法,计算相邻帧的尺度比例因子以更新位移信息;
[0032]
采用随机子空间算法分析结构的位移响应数据,估算结构的系统模态参数。
[0033]
进一步的,所述针对相机标定后的结构振动视频,采用运动增强时空上下文矩阵 算法,提取结构基于无人机相机运动的相对运动位移,具体包括:
[0034]
根据首帧照片的图像强度,以及预定义的目标位置,计算上下文先验概率p(c(z)|o), 如下式:
[0035]
p(c(z)|o)=i(z)ω
σ
(z-x
*
)
[0036]
其中,ω
σ
定义为加权高斯函数:
[0037][0038]
σ=(sw sh)/2
[0039]
其中,a为归一化系数,以保证p(c(z)|o)在0~1间变化;σ为尺度参数,sw和sh分 别为目标区域的长度和宽度;
[0040]
利用稠密光流方法估计上下文中所有像素的运动趋势,以生成上下文影响矩阵;
[0041]
定义条件概率函数p(x|c(z),o)为:
[0042]
p(x|c(z),o)=h(x-z)
[0043]
其中,h
sc
(x-z)为空间上下文模型函数,取决于目标位置x和局部上下文位置z之 间的相对距离和方向,且设置为非径向对称函数;
[0044]
将定义条件概率函数p(x|c(z),o)、影响系数上下文先验概率p(c(z)|o)代入置 信度函数,得到下式:
[0045]
[0046][0047][0048]
其中,表示卷积运算符,表示逆傅里叶变换,c(x)表示置信度函数。
[0049]
进一步的,所述利用稠密光流方法估计上下文中所有像素的运动趋势,以生成上 下文影响矩阵,具体包括:
[0050]
获得第(t-1)帧图像的强度i
t-1
(x,y)和第t帧图像的强度i
t
(x,y);
[0051]
使用最小二乘法方法计算各像素点的速度和方向,如下式:
[0052][0053]
其中,所有的偏微分数值通过一阶微分值估计;
[0054]
计算上下文中目标中心与每个像素点之间的速度差,如下式:
[0055][0056]
对于上下文区域中的每个像素,用负指数函数转换相应的速度差以生成影响系数, 如下式:
[0057][0058]
其中,γ是比例参数。
[0059]
进一步的,所述目标位置通过极大化以下置信度函数来追踪,如下式:
[0060][0061]
其中,x∈r2为目标位置;o为场景中的目标;x
*
为目标区域中心点位置;b为归 一化系数,以保证p(x|o)在0~1间变化;α和β分别为尺度参数和形状参数。
[0062]
进一步的,所述采用时空边缘自适应检测算法,计算相邻帧的尺度比例因子以更 新位移信息,具体包括:
[0063]
获取第t帧目标对象区域图像i
t
(x,y);
[0064]
利用canny边缘检测算法获取目标边缘图,并计算第t帧目标对象边缘距离集合 [0065]
计算目标对象图像像素距离,如下式:
[0066]
[0067]
计算目标对象图像像素距离和在世界坐标中的距离之间的比率,作为比例因子, 如下式:
[0068][0069]
其中,δ
image
是目标对象图像像素距离,δ
word
是目标对象在世界坐标中的距离, s
t
是第t帧比例因子;
[0070]
对第t帧比例因子进行加权处理,并对每帧中加权处理得到的比例因子进行更新, 如下式:
[0071][0072]
其中,为权值。
[0073]
进一步的,所述采用随机子空间算法分析结构的位移响应数据,估算结构的系统 模态参数,具体包括:
[0074]
将测量数据构造hankel矩阵,按矩阵行数的不同将hankel矩阵分为“过去”和“将 来”,构造新矩阵y=yp/yf;
[0075]
根据矩阵y,运用空间投影理论计算投影矩阵pi,如下式:
[0076][0077]
对投影矩阵pi进行svd奇异值分解得到扩展观测矩阵oi和卡尔曼滤波状态序列
[0078][0079]
通过最小二乘法计算出系统的状态矩阵a、输出矩阵c;
[0080]
求解状态矩阵a的特征值,得到系统的模态参数,如下式:
[0081]
a=φλφ-1
[0082]
其中,φ、λ分别为状态空间矩阵a的特征向量和特征值构成的对角矩阵,λ中对角 元素即为离散的特征值λi,i=1,2,

,n。
[0083]
进一步的,所述离散的特征值λi与连续的特征值λ
ci
的关系有:
[0084][0085]
其中,δt为采样间隔,系统的模态固有频率和振型为:
[0086][0087]
本发明的第二个目的可以通过采取如下技术方案达到:
[0088]
一种结构模态参数识别装置,所述装置包括:
[0089]
标定模块,用于获取无人机拍摄的结构振动视频,并进行相机标定;
[0090]
提取模块,用于针对相机标定后的结构振动视频,采用运动增强时空上下文矩阵 算法,提取结构基于无人机相机运动的相对运动位移;
[0091]
计算模块,用于采用时空边缘自适应检测算法,计算相邻帧的尺度比例因子以更 新位移信息;
[0092]
估算模块,用于采用随机子空间算法分析结构的位移响应数据,估算结构的系统 模态参数。
[0093]
本发明的第三个目的可以通过采取如下技术方案达到:
[0094]
一种计算机设备,包括处理器以及用于存储处理器可执行程序的存储器,所述处 理器执行存储器存储的程序时,实现上述的结构模态参数识别方法。
[0095]
本发明的第四个目的可以通过采取如下技术方案达到:
[0096]
一种存储介质,存储有程序,所述程序被处理器执行时,实现上述的结构模态参 数识别方法。
[0097]
本发明相对于现有技术具有如下的有益效果:
[0098]
本发明结合运动增强时空上下文、时空边缘检测方法和随机子空间法,使用运动 增强时空上下文矩阵算法,实现了从无人机拍摄的结构振动视频提取结构的模态参数, 通过时空上下文边缘检测算法,修正图像尺度变化的大小,运用随机子空间法直接分 析结构的响应数据,运用空间投影可以将数据不相关的噪声信号剔除,方便快捷地获 取结构的动力特性。
附图说明
[0099]
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现 有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅 是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提 下,还可以根据这些附图示出的结构获得其他的附图。
[0100]
图1为本发明实施例1的结构模态参数识别方法的简易流程图。
[0101]
图2为本发明实施例1的结构模态参数识别方法的具体流程图。
[0102]
图3为本发明实施例1的目标与其局部上下文空间关系的图形模型图。
[0103]
图4为本发明实施例1的上下文区域和影响矩阵图。
[0104]
图5为本发明实施例1的mstc算法流程图。
[0105]
图6为本发明实施例1的canny边缘检测图。
[0106]
图7为本发明实施例1的实验装置图。
[0107]
图8a~图8b为本发明实施例1的光照变化对比图。
[0108]
图9为本发明实施例1的风速测量传感器示意图。
[0109]
图10为本发明实施例1的初始目标定义图。
[0110]
图11为本发明实施例1的无干扰情况下无人机中目标1和目标2比例因子变化时 程图。
[0111]
图12为本发明实施例1的无干扰情况下固定相机中目标1和目标2比例因子变化 时程图。
[0112]
图13为本发明实施例1的无干扰因素情况下目标1的位移时程与局部放大图。
[0113]
图14为本发明实施例1的无干扰因素情况下目标2的位移时程与局部放大图。
[0114]
图15a为本发明实施例1的无干扰情况下含尺度更新振型图。
[0115]
图15b为本发明实施例1的无干扰情况下不含尺度更新振型图。
[0116]
图16为本发明实施例1的光照变化情况下目标1和目标2比例因子变化时程图。
[0117]
图17为本发明实施例1的光照变化情况下目标1的位移时程与局部放大图。
[0118]
图18为本发明实施例1的光照变化情况下目标2的位移时程与局部放大图。
[0119]
图19a为本发明实施例1的光照变化情况下含尺度更新振型图。
[0120]
图19b为本发明实施例1的光照变化情况下不含尺度更新振型图。
[0121]
图20为本发明实施例1的风干扰情况下目标1和目标2比例因子变化时程图。
[0122]
图21为本发明实施例1的风干扰情况下目标1的位移时程与局部放大图。
[0123]
图22为本发明实施例1的风干扰情况下目标2的位移时程与局部放大图。
[0124]
图23a为本发明实施例1的风干扰情况下含尺度更新振型图。
[0125]
图23b为本发明实施例1的风干扰情况下不含尺度更新振型图。
[0126]
图24为本发明实施例2的结构模态参数识别装置的结构框图。
[0127]
图25为本发明实施例3的计算机设备的结构框图。
具体实施方式
[0128]
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例 中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实 施例是本发明的一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领 域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发 明保护的范围。
[0129]
实施例1:
[0130]
本实施例结合运动增强时空上下文、时空边缘检测方法和随机子空间法,提出了 一种结构模态参数识别方法,基于无人机视频技术来实现,定义为基于时空边缘检测 的运动增强时空上下文算法,用于从无人机拍摄的结构振动视频中提取结构模态参数。 首先使用运动增强时空上下文算法获取结构基于无人机相机运动的相对运动位移,随 后引入一种时空边缘自适应检测算法,计算相邻帧的尺度比例因子以更新位移信息。 最后使用工作模态分析(operational modal analysis,oma,也称为环境激励下模态分 析)——随机子空间法(stochastic subspace identification,ssi),直接分析视觉技术 获取位移数据,估算结构模态的固有频率和振型。
[0131]
如图1和图2所示,本实施例的结构模态参数识别方法包括以下步骤:
[0132]
s201、获取无人机拍摄的结构振动视频,并进行相机标定。
[0133]
本实施例中,在现实环境中通过无人机拍摄的结构振动视频,并进行相机标定。
[0134]
s202、针对相机标定后的结构振动视频,采用运动增强时空上下文矩阵算法,提 取结构基于无人机相机运动的相对运动位移。
[0135]
本实施例中,对相机标定后的视频使用运动增强时空上下文矩阵算法,实现了从 无人机拍摄的结构振动视频提取结构的模态参数。
[0136]
该运动增强时空上下文矩阵算法通过以下置信度函数来追踪目标位置:
[0137][0138]
其中,x∈r2为目标位置;o为场景中的目标;x
*
为目标区域中心点位置;b为归 一化系数,以保证p(x|o)在0~1间变化;α和β分别为尺度参数和形状参数。
[0139]
当前帧照片中,目标区域的局部上下文特征集定义为:
[0140]
xc={c(z)=(i(z),z)|z∈ωc(x
*
)}
ꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(2)
[0141]
其中,i(z)为位置z处的图像强度;ωc(x
*
)为目标点x
*
周围的局部上下文区域。
[0142]
依据贝叶斯概率公式,式(1)中的置信度函数可展开为:
[0143][0144][0145]
其中,p(x,c(z)|o)为联合概率函数;p(x|c(z),o)为条件概率函数,表示目标位置 与其局部上下文之间的空间关系;p(c(z)|o)为上下文先验概率函数,表示局部上下文 的外观特征。
[0146]
首先,根据首帧照片的图像强度,以及预定义的目标位置,可计算上下文先验概 率p(c(z)|o),如下式:
[0147]
p(c(z)|o)=i(z)ω
σ
(z-x
*
)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(4)
[0148]
其中,ω
σ
定义为加权高斯函数,如下式:
[0149][0150]
σ=(sw sh)/2
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6)
[0151]
其中,a为归一化系数,以保证p(c(z)|o)在0~1间变化;σ为尺度参数,sw和sh分 别为目标区域的长度和宽度。
[0152]
其次,定义上下文影响矩阵,上下文影响矩阵是基于上下文不同区域内的像素点 与跟踪目标之间的运动趋势相似性来构建数学模型,目标与其局部上下文空间关系的 图形模型如图3所示,上下文区域和影响矩阵如图4所示。在本实施例中,利用稠密 光流方法估计上下文中所有像素的运动趋势,以生成上下文影响矩阵,步骤如下:
[0153]
(1)获得第(t-1)帧图像的强度i
t-1
(x,y)和第t帧图像的强度i
t
(x,y)。
[0154]
(2)使用最小二乘法方法计算各像素点的速度和方向,如下式:
[0155][0156]
其中,所有的偏微分数值通过一阶微分值估计,即:
[0157][0158][0159]
[0160]
(3)计算上下文中目标中心与每个像素点之间的速度差,如下式:
[0161][0162]
(4)对于上下文区域中的每个像素,用负指数函数转换相应的速度差以生成影响 系数,如下式:
[0163][0164]
其中,γ是比例参数。可以观察出,两个速度越相似,即速度差越小,影响系数将 取更大的值。
[0165]
最后,定义条件概率函数p(x|c(z),o)为:
[0166]
p(x|c(z),o)=h(x-z)*m(z)
ꢀꢀꢀꢀꢀꢀꢀꢀ
(13)
[0167]
其中,hsc(x-z)为空间上下文模型函数,取决于目标位置x和局部上下文位置z之 间的相对距离和方向,且设置为非径向对称函数,该设置有助于解决距离和背景相似 带来的歧义。
[0168]
将公式(13)、(12)和(4)代入公式(3),可得:
[0169][0170][0171][0172]
其中,代表卷积运算符,表示逆傅里叶变换(ifft)。
[0173]
每一帧图片中的像素点数量众多,公式(15)的卷积运算效率低且计算复杂。已知在 时域中进行卷积运算的结果与其在频域的乘积运算结果一致,因此,为了提高计算效 率,mstc算法结合快速傅里叶算法(fft),将卷积运算转换成乘积运算,可大幅提 高运算效率。
[0174]
mstc算法将目标跟踪任务转换为对置信度函数c(x)的最大值搜索任务。在第t 帧照片中,通过公式(16)计算得当前帧照片的空间上下文模型h
t
(x),继而根据下式更 新下一帧照片的时空上下文模型h
t 1
(x),如下式:
[0175]ht 1
(x)=(1-ρ)h
t
(x) ρh
t
(x)
ꢀꢀꢀꢀꢀꢀꢀꢀ
(17)
[0176]
式中,ρ为学习速率因子;h
t 1
(x)定义为前一帧照片的时空上下文模型和空间上 下文模型的加权和,这种加权处理可以有效地抑制物体外观强度突变引起的噪声干扰。
[0177]
获得m(x)之后,要使以下置信度函数最大化来跟踪目标位置,如下式:
[0178][0179]
其中,m
t 1
(x)与公式(17)h
t 1
(x)更新方法相同,利用第t帧影响矩阵m
t
(x)更 新获
态参数,该方法的简要过程如下:
[0198]
(1)将测量数据构造hankel矩阵,按矩阵行数的不同将其分为“过去”和“将 来”构造新矩阵y=yp/yf。
[0199]
(2)运用空间投影理论计算投影矩阵pi,如下式:
[0200][0201]
(3)对上述投影矩阵进行svd奇异值分解得到扩展观测矩阵oi和卡尔曼滤波状 态序列如下式:
[0202][0203]
(4)通过最小二乘法可进一步计算出系统的状态矩阵a、输出矩阵c。
[0204]
(5)求解状态矩阵a的特征值即可得系统的模态参数,如下式:
[0205]
a=φλφ-1
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(25)
[0206]
其中,φ、λ分别为状态空间矩阵a的特征向量和特征值构成的对角矩阵。λ中对角 元素即为离散的特征值λi(i=1,2,

,n),离散特征值λi与连续的特征值λ
ci
的关系有:
[0207][0208]
其中,δt为采样间隔。因此,系统的模态固有频率和振型为:
[0209][0210]
本实施例将在小型地震模拟振动台quanser上进行框架结构模型的动力实验,以 验证所提出的方法在模拟现实环境中的光照变化和风干扰情况下,能否利用无人机直 接获取结构固有频率和振型。实验将以加速度计测量结果为参考值,分别对比无人机 和固定相机测量效果,以及本实施例方法与lk-harris算法的效果。
[0211]
实验装置如图7所示,二层钢框架模型固定连接在quanser单向振动台上,每层 模型安装了加速度传感器,记录模型的加速度时程,并由数据采集卡和电脑进行自动 采集。实验使用了商业无人机dj phantom4通过悬停模式录制模型振动视频,无人机 的相机分辨率为3840*2160像素,帧率为29.97fps。此外,无人机的云台相机还嵌入了 加速度和陀螺仪以抵抗无人机3轴旋转从而保持相机稳定。作为对比,同时使用了固 定相机录制模型振动视频,固定相机(商业智能手机)安装在距离振动台2m处,视频 记录分辨率为1920*1080像素,帧率为29.97fps。
[0212]
实验中,为了激发结构的各阶振动模式,将带限白噪声(blwn)用作输入信号。 此外,为了考查方法在真实背景环境下的应用效果,没有对钢框架模型背后的复杂背 景进行遮挡。
[0213]
为了考查方法在不同环境下的应用效果,特设计四组对比实验:
[0214]
(1)场景一,在框架模型振动过程中,无任何干扰因素。
[0215]
(2)场景二,在框架模型振动过程中模拟光照变化。在设备旁放置一台照明设备, 并在振动过程中多次打开/关闭它。如图8a中的所示为关闭灯时的情况,如图8b中所 示为打开灯时的情况,可以观察到图像亮度的显着差异。
[0216]
(3)场景三,框架模型振动过程中模拟风干扰。在无人机侧方放置电风扇,并在 振
动过程中将其打开以模拟有风的环境。并使用风速传感器测量风速变化,风扇开启情况下,风速可达3.34m/s。如图9所示,这一风速接近大疆无人机实际使用中的建议风速限值(三级风)。
[0217]
为了便于与加速度传感器的测量结果进行直接对比,选择图中与加速度传感器同一高度的两个目标作为跟踪目标。如图10所示,在第一帧图像中,用蓝色十字标记表示两个目标点,其中分别用红色和绿色框表示相应的目标区域。
[0218]
首先使用通过相机标定获取无人机相机的所有校准参数和畸变系数,随后将无人机拍摄的原始振动视频校准更新为新视频,再将新视频应用于两种基于视觉的测量方法,即mstc方法和特征lk-harris方法,并分别考察不引入和引入自适应比例因子的两种情况,以得到相应的位移时程数据。最后,使用随机子空间算法获取模型的动态特性。其中,作为对比分析用的常用lk-harris算法,采用的是lucas-kanade光流与harris角点相结合的跟踪算法
[0219]
在对比研究中,使用两种类型的评估指标,即模态置信度准则(modalassurancecriterion,mac)和频率相对误差,以评估基于视觉的测量方法的性能。其中模态置信度也称为振型相关系数,用于判断两个模型之间的模态振型相似程度,其表达式如下:
[0220][0221]
其中,若φ1和φ2属于同一个振型,则mac接近于1。而频率相对误差指的是测量所造成的绝对误差与被测量(约定)真值之比乘以100%所得的数值,以百分数表示,其用于判断使用视觉方法获得的频率与加速度传感器获取的频率的误差,表达式如下:
[0222][0223]
图11~图23和表1~表6中显示并比较了所有三种场景情况下的测量结果,其中,s1和s2分别代表第一目标点和第二目标点比例因子的计算结果;emstc-1和emstc-2表示含比例因子更新变化的mstc方法获取的目标一和目标二的测量结果;mstc-1和mstc-2表示不含比例因子更新变化的mstc测量结果;elk-1和elk-2表示含比例因子更新变化的lk-harris测量结果;lk-1和lk-2表示不含比例因子更新变化的lk-harris测量结果;camera-1和camera-2表示由固定相机视频和mstc方法获得的测量结果;sensor表示基于加速度计的测量结果。
[0224]
下面将对测量结果进行详细说明:
[0225]
a、干扰环境
[0226]
从图11~图15和表1~表2中可以看出:
[0227]
(1)在无干扰环境下,基于固定相机的结构模态识别结果的精度要优于基于无人机的结果,表明无人机悬停时的微小运动会给测量结果带来不利影响。
[0228]
(2)在无干扰环境下,由于无人机悬停时在z方向的微小运动变化,导致比例因子在每帧图像中都发生了变化。目标1的比例因子在0.78~0.82间变化,目标2的比例因子在0.70~0.78间变化,表明不同帧的像素位移之间存在着最大约10%的偏差。作为对比,通过固定相机视频识别得到的比例因子在帧间几乎无变化,也进一步印证了本文比例因子
识别算法的有效性。
[0229]
(3)在无干扰环境下,是否考虑尺度更新对于结构自振频率的识别影响不大。不 同视频方法都能识别得到较高精度的结构自振频率,相对于加速度传感器识别结果的 误差均小于1%。
[0230]
(4)在无干扰环境下,是否考虑尺度更新对于结构振型的识别影响较大。虽然不 同方法测量结果的mac都具有99%以上的精度,但考虑尺度更新的mstc和lk-harris 结果都比不考虑的情况精度更高,其中,mstc结果更优于lk-harris结果。
[0231]
(5)不同视频分析方法识别得到的低阶自振频率和振型的精度都优于高阶情况, 表明通过视频识别得到的位移响应结果,有利于结构低阶振动模态的高精度识别,这 与常规位移传感器的应用特点相符。
[0232]
表1 无干扰因素情况下的模态参数识别对比(含比例因子更新)
[0233][0234]
表2 无干扰因素情况下的模态参数识别对比(不含比例因子更新)
[0235][0236]
b、光照变化环境
[0237]
从图16~图19和表3~表4中可以看出:
[0238]
(1)在光照变化环境下,基于固定相机的结构模态识别结果的精度要优于基于无 人机的结果,表明无人机悬停时的微小运动会给测量结果带来不利影响。
[0239]
(2)在光照变化环境下,由于无人机悬停时在z方向的微小运动变化,导致比例 因子在每帧图像中都发生了变化。目标1的比例因子在0.75~0.80间变化,目标2的 比例因子在0.71~0.77间变化,表明不同帧的像素位移之间存在着最大约10%的偏差。
[0240]
(3)在光照变化环境下,是否考虑尺度更新对于结构自振频率的识别影响不大。 不同视频方法都能识别得到较高精度的结构自振频率,相对于加速度传感器识别结果 的误差均小于1%。
[0241]
(4)在光照变化环境下,是否考虑尺度更新对于结构振型的识别影响较大。考虑 尺度更新的mstc结果的mac具有99%以上的精度,不考虑尺度更新的mstc结果 精度均有所下降,其中二阶振型的mac降到99%以下。而lk-harris方法对于光照变 化的适应性较差,容易导致测量位移发生偏移,虽然考虑尺度更新相对于不考虑尺度 更新的表现较好,但识别结果的mac都小于72%,二阶结果更小于49%。
[0242]
(5)不同视频分析方法识别得到的低阶自振频率和振型的精度都优于高阶情况。
[0243]
表3 光照变化情况下的模态参数识别对比(含比例因子更新)
[0244]
[0245]
表4 光照变化情况下的模态参数识别对比(不比例因子更新)
[0246][0247]
c、风环境
[0248]
从图20~图23和表5~表6中可以看出:
[0249]
(1)在风干扰环境下,基于固定相机的结构模态识别结果的精度要优于基于无人 机的结果,表明风干扰下的无人机较大幅运动会给测量结果带来不利影响。
[0250]
(2)在风干扰环境下,由于无人机的较大幅运动变化,导致比例因子在每帧图像 中都发生了大幅变化。目标1的比例因子在0.84~1.02间变化,目标2的比例因子在 0.75~0.93间变化,表明不同帧的像素位移之间存在着最大约25%的偏差。
[0251]
(3)在风干扰环境下,是否考虑尺度更新对于结构自振频率的识别影响不大。不 同视频方法都能识别得到较高精度的结构自振频率,相对于加速度传感器识别结果的 误差均小于1%。
[0252]
(4)在风干扰环境下,是否考虑尺度更新对于结构振型的识别影响较大。考虑尺 度更新的mstc结果的mac具有99%以上的精度,不考虑尺度更新的mstc结果精 度均有所下降,其中二阶振型的mac降到98%以下。而lk-harris方法对于大幅相机 运动的适应性较差,容易导致测量位移发生偏移,虽然考虑尺度更新相对于不考虑尺 度更新的表现较好,但识别结果的mac都小于96%,二阶结果更小于86%。
[0253]
(5)不同视频分析方法识别得到的低阶自振频率和振型的精度基本优于高阶情况。
[0254]
表5 风干扰情况下的模态参数识别对比(含比例因子更新)
[0255][0256]
表6 风干扰情况下的模态参数识别对比(不含比例因子更新)
[0257][0258]
d、实验结果总结
[0259]
综合上述三种实验场景结果,可得到如下一般结论:
[0260]
(1)要评估不同视觉方法辨识结构模态的性能优劣,当涉及环境干扰时,结构振 型指标相比结构频率指标更为关键。
[0261]
(2)在基于无人机视觉技术的工程振动测量中,尺度更新对于获取结构频率影响 较小,但是对于获取准确的结构振型至关重要。
[0262]
(3)相较于lk-harris方法,mstc方法对于光照变化和大幅相机运动干扰的适 应性更好,目标运动跟踪的鲁棒性增强;进一步引入尺度更新后,可以更准确地得到 目标的实际物理位移,有助于识别准确的结构振型。
[0263]
本领域技术人员可以理解,实现上述实施例的方法中的全部或部分步骤可以通过 程序来指令相关的硬件来完成,相应的程序可以存储于计算机可读存储介质中。
[0264]
应当注意,尽管在附图中以特定顺序描述了上述实施例的方法操作,但是这并非 要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才 能实现期望的结果。相反,描绘的步骤可以改变执行顺序。附加地或备选地,可以省 略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
[0265]
实施例2:
[0266]
如图24所示,本实施例提供了一种结构模态参数识别装置,其包括标定模块2401、 提取模块2402、计算模块2403和估算模块2404,各个模块的具体功能如下:
[0267]
标定模块2401,用于获取无人机拍摄的结构振动视频,并进行相机标定。
[0268]
提取模块2402,用于针对相机标定后的结构振动视频,采用运动增强时空上下文 矩阵算法,提取结构基于无人机相机运动的相对运动位移。
[0269]
计算模块2403,用于采用时空边缘自适应检测算法,计算相邻帧的尺度比例因子 以更新位移信息。
[0270]
估算模块2404,用于采用随机子空间算法分析结构的位移响应数据,估算结构的 系统模态参数。
[0271]
本实施例中各个模块的具体实现可以参见上述实施例1,在此不再一一赘述;需要 说明的是,本实施例提供的系统仅以上述各功能模块的划分进行举例说明,在实际应 用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将内部结构划分成 不同的功能模块,以完成以上描述的全部或者部分功能。
[0272]
实施例3:
[0273]
获取无人机拍摄的结构振动视频,并进行相机标定;
[0274]
获取无人机拍摄的结构振动视频,并进行相机标定;
[0275]
针对相机标定后的结构振动视频,采用运动增强时空上下文矩阵算法,提取结构 基于无人机相机运动的相对运动位移;
[0276]
采用时空边缘自适应检测算法,计算相邻帧的尺度比例因子以更新位移信息;
[0277]
采用随机子空间算法分析结构的位移响应数据,估算结构的系统模态参数。
[0278]
实施例4:
[0279]
本实施例提供了一种存储介质,该存储介质为计算机可读存储介质,其存储有计 算机程序,所述计算机程序被处理器执行时,实现上述实施例1的结构模态参数识别 方法,如下:
[0280]
获取无人机拍摄的结构振动视频,并进行相机标定;
[0281]
针对相机标定后的结构振动视频,采用运动增强时空上下文矩阵算法,提取结构 基于无人机相机运动的相对运动位移;
[0282]
采用时空边缘自适应检测算法,计算相邻帧的尺度比例因子以更新位移信息;
[0283]
采用随机子空间算法分析结构的位移响应数据,估算结构的系统模态参数。
[0284]
需要说明的是,本实施例的计算机可读存储介质可以是计算机可读信号介质或者 计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是但 不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的 组合。计算机
可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线 的电连接、便携式计算机磁盘、硬盘、随机访问存储器(ram)、只读存储器(rom)、 可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑磁盘只读存储器(cd-rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。
[0285]
综上所述,本发明结合运动增强时空上下文、时空边缘检测方法和随机子空间法, 使用运动增强时空上下文矩阵算法,实现了从无人机拍摄的结构振动视频提取结构的 模态参数,通过时空上下文边缘检测算法,修正图像尺度变化的大小,运用随机子空 间法直接分析结构的响应数据,运用空间投影可以将数据不相关的噪声信号剔除,方 便快捷地获取结构的动力特性;为了验证方法的可行性,开展在白噪声激励下振动试 验,使用无人机对振动台进行拍摄,通过实验模拟光照变化和风干扰,对比考查本发 明方法与特征光流算法(lucas-kanada optical flow & harris,lk-harris)算法、固定 相机和加速度传感器的测量结果。实验结果表明,传统的特征光流算法在光照环境和 风环境中误差较大,而本发明方法对于现实环境的有更优的适应性和识别鲁棒性。
[0286]
以上所述,仅为本发明专利较佳的实施例,但本发明专利的保护范围并不局限于 此,凡未脱离本发明专利利用交直流相对关系与时序构造结构模态参数识别的等效实 施或变更,包括图、公式、预设阈值等,都属于本发明专利的保护范围。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献