一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种分布式并行分析型数据集群管理方法及系统与流程

2021-12-04 01:41:00 来源:中国专利 TAG:


1.本发明涉及集群管理的技术领域,尤其涉及一种分布式并行分析型数据集群管理方法及系统。


背景技术:

2.随着集群系统的发展,集群的规模日益增大,结构愈趋复杂,使得集群管理系统不仅要具有节点自动发现、设备集中管理、可视化界面及系统状态监测等功能。还需要使系统具有强大的通用性、良好的扩展性以及低廉的管理成本。
3.然而现有集群管理系统,如flink和spark,其中,flink通过使用内存处理技术,改善了hadoop的性能;spark提供了用户数据转换的多样性;但这些生态系统在大数据系统中的具体应用还处于初始阶段,监控数据传输开销大、对受管对象描述能力不足。


技术实现要素:

4.本部分的目的在于概述本发明的实施例的一些方面以及简要介绍一些较佳实施例。在本部分以及本技术的说明书摘要和发明名称中可能会做些简化或省略以避免使本部分、说明书摘要和发明名称的目的模糊,而这种简化或省略不能用于限制本发明的范围。
5.鉴于上述现有存在的问题,提出了本发明。
6.因此,本发明提供了一种分布式并行分析型数据集群管理方法,能够解决现有的集群管理系统无法对大数据进行高效率存储的问题。
7.为解决上述技术问题,本发明提供如下技术方案:包括,根据集群、管理域、集群节点,利用cim模型建立集群模块;通过集群模块对客户端采集的管理资源进行异常检测和过滤;计算服务器的综合性能参数,并根据所述综合性能参数将过滤后的数据进行调度,以存储在所述服务器中。
8.作为本发明所述的分布式并行分析型数据集群管理方法的一种优选方案,其中:管理资源包括内存使用率、cpu占用率、磁盘i/o和磁盘空间使用率。
9.作为本发明所述的分布式并行分析型数据集群管理方法的一种优选方案,其中:还包括,所述集群为集群系统的逻辑对象,包括集群系统的存储容量、cpu总体负荷;所述管理域为集群系统管理域的逻辑对象,包括管理域名称、管理域管理节点的ip地址、管理域存储容量、管理域cpu总体负荷;所述集群节点为集群系统中某个集体节点的逻辑对象,包括某个节点的ip地址、实例所在空间地址。
10.作为本发明所述的分布式并行分析型数据集群管理方法的一种优选方案,其中:所述异常检测包括,将所述管理资源定义为p={a,b,c,d};利用聚类算法压缩所述管理资源p,并计算管理资源p的核密度;比较数据点间的核密度,删除核密度最小的数据点,更新所述管理资源p;其中,a={a1,a2…
a
i
}为内存使用率数据点集合、b={b1,b2…
b
i
}为cpu占用率数据点集合、c={c1,c2…
c
i
}为磁盘i/o数据点集合和d={d1,d2…
d
i
}为磁盘空间使用率数据点集合,i为监测节点数。
11.作为本发明所述的分布式并行分析型数据集群管理方法的一种优选方案,其中:所述过滤包括,在集群模块的过滤单元中建立一个类,所述类存有需要监控的数据,当过滤单元接收到管理资源时,自动生成实例,通过实例滤除不需要监控的数据。
12.作为本发明所述的分布式并行分析型数据集群管理方法的一种优选方案,其中:所述综合性能参数包括,采集服务器输出的性能指标;根据服务器的性能指标值与最大性能指标值,计算性能指标的比值;根据所述比值设置权重,结合所述权重获得所述综合性能参数。
13.作为本发明所述的分布式并行分析型数据集群管理方法的一种优选方案,其中:所述性能指标的比值包括,所述服务器输出的性能指标包括cpu处理速率v
n
、内存容量s
n
、磁盘读写速率r
n
和网络带宽e
n

14.cpu处理速率的比值s
c
为:
[0015][0016]
内存容量的比值s
m
为:
[0017][0018]
磁盘读写速率的比值s
r
为:
[0019][0020]
网络带宽的比值s
e
为:
[0021][0022]
其中,j表示第j台服务器,n为服务器数量。
[0023]
作为本发明所述的分布式并行分析型数据集群管理方法的一种优选方案,其中:所述调度包括,选取最大综合性能参数的服务器保存过滤后数据中的动态数据,其余的服务器存储过滤后数据中的静态数据。
[0024]
作为本发明所述的分布式并行分析型数据集群管理系统的一种优选方案,其中:包括,客户端,用于采集的管理资源;集群模块,与所述客户端连接,用于对所述管理资源进行异常检测和过滤;服务器,与所述集群模块连接,用于存储过滤后的管理资源。
[0025]
本发明的有益效果:本发明能够根据集群的特点和管理需求合理分布数据、对数据进行处理,解决现有大部分集群管理系统的不足,提高存储性能。
附图说明
[0026]
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。其中:
[0027]
图1为本发明第一个实施例所述的一种分布式并行分析型数据集群管理方法的流
程示意图;
[0028]
图2为本发明第二个实施例所述的一种分布式并行分析型数据集群管理系统的网络拓扑结构示意图。
具体实施方式
[0029]
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合说明书附图对本发明的具体实施方式做详细的说明,显然所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明的保护的范围。
[0030]
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是本发明还可以采用其他不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似推广,因此本发明不受下面公开的具体实施例的限制。
[0031]
其次,此处所称的“一个实施例”或“实施例”是指可包含于本发明至少一个实现方式中的特定特征、结构或特性。在本说明书中不同地方出现的“在一个实施例中”并非均指同一个实施例,也不是单独的或选择性的与其他实施例互相排斥的实施例。
[0032]
本发明结合示意图进行详细描述,在详述本发明实施例时,为便于说明,表示器件结构的剖面图会不依一般比例作局部放大,而且所述示意图只是示例,其在此不应限制本发明保护的范围。此外,在实际制作中应包含长度、宽度及深度的三维空间尺寸。
[0033]
同时在本发明的描述中,需要说明的是,术语中的“上、下、内和外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一、第二或第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
[0034]
本发明中除非另有明确的规定和限定,术语“安装、相连、连接”应做广义理解,例如:可以是固定连接、可拆卸连接或一体式连接;同样可以是机械连接、电连接或直接连接,也可以通过中间媒介间接相连,也可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
[0035]
实施例1
[0036]
参照图1,为本发明的第一个实施例,该实施例提供了一种分布式并行分析型数据集群管理方法,包括:
[0037]
s1:根据集群、管理域、集群节点,利用cim模型建立集群模块200。
[0038]
其中需要说明的是,集群为集群系统的逻辑对象,包括集群系统的存储容量、cpu总体负荷;
[0039]
管理域为集群系统管理域的逻辑对象,包括管理域名称、管理域管理节点的ip地址、管理域存储容量、管理域cpu总体负荷;
[0040]
集群节点为集群系统中某个集体节点的逻辑对象,包括某个节点的ip地址、实例所在空间地址;以便客户端集群模块200获取更详细的监控信息。
[0041]
cim是一种典型的分层管理信息模型,它由核心模型,通用模型,扩展模型组成;其中,核心模型由一组类和一组集合层次组成,这些类提供通用继承性,这些集合可运用于所
有管理域;通用模型详细说明具体管理区域的模型,包括系统、设备、物理实体、网络、用户和服务层的协议模型;扩展模型描绘核心模型以及一个或多个通用模型在特定技术、特定平台或者特定的实现上的扩展,构造扩展模型的目的是为了满足特定应用或特定平台的需要。
[0042]
建立的集群模块200包括过滤单元201和节点端202,其中,在集群环境下,通过节点端202对相关分布式数据进行异常检测,为系统提供可靠的数据。
[0043]
s2:通过集群模块200对客户端100采集的管理资源进行异常检测和过滤。
[0044]
客户端通过后台程序获取管理资源,其中管理资源包括内存使用率、cpu占用率、磁盘i/o和磁盘空间使用率。
[0045]
进一步的,通过节点端202对管理资源进行异常检测,去除异常点,具体步骤如下:
[0046]
(1)将管理资源定义为p={a,b,c,d};
[0047]
其中,a={a1,a2…
a
i
}为内存使用率数据点集合、b={b1,b2…
b
i
}为cpu占用率数据点集合、c={c1,c2…
c
i
}为磁盘i/o数据点集合和d={d1,d2…
d
i
}为磁盘空间使用率数据点集合,i为监测节点数。
[0048]
(2)利用聚类算法压缩管理资源p,并计算管理资源p的核密度;
[0049]
a)压缩管理资源p的步骤如下:
[0050]

输入管理资源p;
[0051]

选择k个初始中心点,例如p[0]=data[0],

p[k

1]=data[k

1];
[0052]

对于data[0]

data[n],分别与p[0]

p[k

1]比较,假定与p[m]差值最少,将该点进行标记;
[0053]

对于所有标记的点,重新计算c[m]={所有标记为m的data[j]之和}/标记为m的个数;
[0054]

重复
③④
,直到所有c[m]值的变化小于给定阈值,设给定阈值为200。
[0055]
b)计算管理资源p的核密度:
[0056]
设管理资源p的微簇为r
n
,核密度定义为:
[0057][0058]
其中,k为总观测次数,d
n
为第n个微簇的观测次数,k为核函数,d为微簇总数。
[0059]
本实施例中核函数k为generalized t

student kernel。
[0060]
(3)比较数据点间的核密度,删除核密度最小的数据点,更新管理资源p;
[0061]
再进一步的,通过过滤单元201对数据进行过滤:
[0062]
(1)在集群模块200的过滤单元201中建立一个类,该类存有需要监控的数据;
[0063]
(2)当过滤单元201接收到管理资源时,自动生成实例,通过实例滤除不需要监控的数据。
[0064]
s3:计算服务器300的综合性能参数,并根据综合性能参数将过滤后的数据进行调度,以存储在服务器300中。
[0065]
(1)计算综合性能参数
[0066]

采集服务器300输出的性能指标;
[0067]
服务器300输出的性能指标包括cpu处理速率v
n
、内存容量s
n
、磁盘读写速率r
n
和网络带宽e
n

[0068]

根据服务器300的性能指标值与最大性能指标值,计算性能指标的比值;
[0069]
cpu处理速率的比值s
c
为:
[0070][0071]
内存容量的比值s
m
为:
[0072][0073]
磁盘读写速率的比值s
r
为:
[0074][0075]
网络带宽的比值s
e
为:
[0076][0077]
其中,j表示第j台服务器,n为服务器数量。
[0078]

根据比值设置权重,结合权重获得综合性能参数。
[0079]
分别设置权重为β、δ、μ、τ,且权重的取值范围为(0,1);计算综合性能参数w:
[0080]
w=βs
c
δs
m
μs
r
τs
e
[0081]
(2)调度过滤后的数据
[0082]
通过io调度器将过滤后数据调度至服务器,选取最大综合性能参数的服务器保存过滤后数据中的动态数据,其余的服务器存储过滤后数据中的静态数据。
[0083]
其中,i/o调度器包括io调度接口和缓存器,io调度接口为整体上对外提供的接口,负责接收读/写请求,并将其交给读管理器或写管理器,读/写管理器则负责具体的io操作;首先,读/写管理器中都有一个独立的读/写操作线程,可用于实现异步io,解耦并重叠cpu计算和io操作,以减少不必要的io等待;其次,读/写管理器分别管理着一组读/写队列,一个读/写队列是一个数据结构,包括该io请求的输入/输出流(input stream/outputstream),以及一个数据缓冲队列;缓冲区中存放的就是所要写入文件系统的数据或者刚从文件系统中读出的数据,具体来说就是个缓冲的链表,数据缓冲区的长度设有上限,当队列中的数据超过该上限时就会被阻塞,主要跟cpu计算和io操作的速度有关,这样可以在不影响性能的前提下避免不必要的内存浪费。
[0084]
较佳的是,在这种多缓冲的基础上,采用全新的io模式(串行io和交错io相结合),有效提高了io速度;最后,在同时处理多个io请求时,为不同的io请求设定不同的优先级,并进行了全局的调度。
[0085]
为了对本方法中采用的技术效果加以验证说明,本实施例选择传统的技术方案和采用本方法进行对比测试,以科学论证的手段对比试验结果,以验证本方法所具有的真实效果。
[0086]
本实施例使用4台虚拟机组成的集群作为测试环境,每台虚拟机的配置相同,包括
4核1.50ghz主频cpu、8gb内存、125gb磁盘,虚拟机上安装了red hat enterprise linux server release6.2(santiago)系统,相互之间通过千兆以太网连接。
[0087]
在进行系统测试前,对测试集群进行了重新安装,初始化了各虚拟机的ost块设备、mds原数据服务器,分别记录客户端获取的存储信息,结果如表1所示。
[0088]
表1:数据存储测试。
[0089] 传统的技术方案本方法ipv4地址192.168.1.3192.168.1.3ipv6地址2020::32020::3已用容量54815241可用容量183179193175节点状态onlineonline获取所有信息消耗的时间0.254s0.021s获取存储信息消耗的时间0.218s0.013s存储响应时间45ms12ms
[0090]
由表1可见,本方法存储数据时响应速度快,极大程度地提高了数据的管理效率。
[0091]
实施例2
[0092]
参照图2,为本发明的第二个实施例,该实施例不同于第一个实施例的是,提供了一种分布式并行分析型数据集群管理系统,包括,
[0093]
客户端100,用于采集管理资源;具体的,客户端100通过后台程序获取管理资源,其中管理资源包括内存使用率、cpu占用率、磁盘i/o和磁盘空间使用率。
[0094]
集群模块200,与客户端100连接,基于核密度函数对管理资源进行异常检测和过滤;
[0095]
服务器300,与集群模块200连接,用于存储过滤后的管理资源。
[0096]
应当认识到,本发明的实施例可以由计算机硬件、硬件和软件的组合、或者通过存储在非暂时性计算机可读存储器中的计算机指令来实现或实施。所述方法可以使用标准编程技术

包括配置有计算机程序的非暂时性计算机可读存储介质在计算机程序中实现,其中如此配置的存储介质使得计算机以特定和预定义的方式操作——根据在具体实施例中描述的方法和附图。每个程序可以以高级过程或面向对象的编程语言来实现以与计算机系统通信。然而,若需要,该程序可以以汇编或机器语言实现。在任何情况下,该语言可以是编译或解释的语言。此外,为此目的该程序能够在编程的专用集成电路上运行。
[0097]
此外,可按任何合适的顺序来执行本文描述的过程的操作,除非本文另外指示或以其他方式明显地与上下文矛盾。本文描述的过程(或变型和/或其组合)可在配置有可执行指令的一个或多个计算机系统的控制下执行,并且可作为共同地在一个或多个处理器上执行的代码(例如,可执行指令、一个或多个计算机程序或一个或多个应用)、由硬件或其组合来实现。所述计算机程序包括可由一个或多个处理器执行的多个指令。
[0098]
进一步,所述方法可以在可操作地连接至合适的任何类型的计算平台中实现,包括但不限于个人电脑、迷你计算机、主框架、工作站、网络或分布式计算环境、单独的或集成的计算机平台、或者与带电粒子工具或其它成像装置通信等等。本发明的各方面可以以存储在非暂时性存储介质或设备上的机器可读代码来实现,无论是可移动的还是集成至计算
平台,如硬盘、光学读取和/或写入存储介质、ram、rom等,使得其可由可编程计算机读取,当存储介质或设备由计算机读取时可用于配置和操作计算机以执行在此所描述的过程。此外,机器可读代码,或其部分可以通过有线或无线网络传输。当此类媒体包括结合微处理器或其他数据处理器实现上文所述步骤的指令或程序时,本文所述的发明包括这些和其他不同类型的非暂时性计算机可读存储介质。当根据本发明所述的方法和技术编程时,本发明还包括计算机本身。计算机程序能够应用于输入数据以执行本文所述的功能,从而转换输入数据以生成存储至非易失性存储器的输出数据。输出信息还可以应用于一个或多个输出设备如显示器。在本发明优选的实施例中,转换的数据表示物理和有形的对象,包括显示器上产生的物理和有形对象的特定视觉描绘。
[0099]
如在本技术所使用的,术语“组件”、“模块”、“系统”等等旨在指代计算机相关实体,该计算机相关实体可以是硬件、固件、硬件和软件的结合、软件或者运行中的软件。例如,组件可以是,但不限于是:在处理器上运行的处理、处理器、对象、可执行文件、执行中的线程、程序和/或计算机。作为示例,在计算设备上运行的应用和该计算设备都可以是组件。一个或多个组件可以存在于执行中的过程和/或线程中,并且组件可以位于一个计算机中以及/或者分布在两个或更多个计算机之间。此外,这些组件能够从在其上具有各种数据结构的各种计算机可读介质中执行。这些组件可以通过诸如根据具有一个或多个数据分组(例如,来自一个组件的数据,该组件与本地系统、分布式系统中的另一个组件进行交互和/或以信号的方式通过诸如互联网之类的网络与其它系统进行交互)的信号,以本地和/或远程过程的方式进行通信。
[0100]
应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献