一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

多数据中心流量调度方法及系统与流程

2022-06-01 04:33:13 来源:中国专利 TAG:


1.本发明涉及计算机网络领域,尤其涉及一种多数据中心流量调度方法、装置、设备及存储介质。


背景技术:

2.随着互联网的快速发展和业务量的不断提高,基于网络的数据访问流量迅速增长,相对于网络技术的发展,服务器处理速度和内存访问速度的增长却远远低于网络带宽和应用服务的增长。随着云计算的兴起,企业后台服务通常使用负载均衡服务器将来自外部的高并发请求发送到服务集群来处理,以达到对外部请求的快速准确响应,其中的负载均衡服务器简言之就是一种将大量的并发访问或数据流量分担到多台节点设备上分别处理,减少用户等待响应的时间的后台服务。。
3.在现有的技术中,现有的负载均衡服务器如lvs(linux virtual server,linux虚拟服务器)、nginx、haproxy等都已能够做到消息的实时转发和一定程度上的负载均衡,但这些负载均衡服务器都只能够支持一种设定的负载均衡策略,且现有负载均衡策略未考虑到服务器距离因素影响。


技术实现要素:

4.本发明的主要目的在于提供一种多数据中心流量调度方法及系统,旨在解决现有负载均衡模式中未考虑到服务器距离因素影响服务器处理请求效率的技术问题。
5.本发明第一方面提供了一种多数据中心流量调度方法,包括:
6.api路由接收客户端发送的请求,并根据配置的路由策略,将所述请求转发至对应虚拟服务器;
7.虚拟服务器进入自适应负载均衡模式,从负载均衡共享内存读取后端各物理服务器当前的事务数量与网络延迟值;
8.所述虚拟服务器根据后端各物理服务器当前的事务数量与网络延迟值,确定处理所述请求的目标物理服务器,并将所述请求转发至所述目标物理服务器进行处理;
9.所述虚拟服务器基于述目标物理服务器的请求处理结果,更新所述目标物理服务器当前的事务数量与网络延迟值。
10.可选的,在本发明第一方面的第一种实现方式中,在所述虚拟服务器根据后端各物理服务器当前的事务数量与网络延迟值,确定处理所述请求的目标物理服务器,并将所述请求转发至所述目标物理服务器进行处理之前,还包括:
11.所述虚拟服务器判断所述请求是否为重新进入的请求;
12.若所述请求是重新进入的请求,则对所述请求对应的物理服务器的事务数量执行减1操作。
13.可选的,在本发明第一方面的第二种实现方式中,所述虚拟服务器根据后端各物理服务器当前的事务数量与网络延迟值,确定处理所述请求的目标物理服务器,并将所述
请求转发至所述目标物理服务器进行处理包括:
14.所述虚拟服务器根据后端各物理服务器当前的事务数量与网络延迟值,计算各所述物理服务器的响应时间;
15.选择各所述物理服务器的响应时间中最短响应时间对应的物理服务器作为处理所述请求的目标物理服务器;
16.将所述请求转发至所述目标物理服务器进行处理,并对所述目标服务器对应的事务数量执行加1操作。
17.可选的,在本发明第一方面的第三种实现方式中,所述响应时间的计算公式如下:
18.若未设置各所述物理服务器的权重值,则所述响应时间的计算公式为:
19.t=n*d220.若对各所述物理服务器设置有权重值,则所述响应时间的计算公式为:
[0021][0022]
其中,t表示响应时间,n表示事务数量,d表示网络延迟值,w表示权重值。
[0023]
可选的,在本发明第一方面的第四种实现方式中,所述虚拟服务器基于述目标物理服务器的请求处理结果,更新所述目标物理服务器当前的事务数量与网络延迟值包括:
[0024]
所述虚拟服务器获取所述目标物理服务器当前连接下的请求数,并判断所述请求数是否为1;
[0025]
若所述请求数为1,则获取当前连接下的网络延迟值,并记作首次网络延迟值;
[0026]
以存储桶的方式存储各所述物理服务器的网络延迟值,将所述首次网络延迟值放入对应的存储桶中;
[0027]
计算各所述存储桶中所有网络延迟值的中位数,并以所述中位数更新所述目标物理服务器的网络延迟值;
[0028]
对所述负载均衡共享内存中存储的所述目标物理服务器的事务数量执行减1操作。
[0029]
可选的,在本发明第一方面的第五种实现方式中,所述计算各所述存储桶中所有网络延迟值的中位数,并以所述中位数更新所述目标物理服务器的网络延迟值包括:
[0030]
基于所述网络延迟值的分布范围,依次均分出若干个存储桶,每个存储桶用于存储落入该存储桶对应数值范围内的网络延迟值;
[0031]
计算在各存储桶之前的存储桶中的最大计数值与该存储桶的计数值的和值,并以所述和值更新所述存储桶的计数值;
[0032]
将最后一个存储桶的计数值除以二得到计数值中位数,以所述计数值中位数作为存储桶的计数值找出对应的存储桶,并计算该存储桶中网络延迟值的中位数作为所述目标物理服务器的网络延迟值。
[0033]
可选的,在本发明第一方面的第六种实现方式中,在所述api路由接收客户端发送的请求,并根据配置的路由策略,将所述请求转发至对应虚拟服务器之前,还包括:
[0034]
在路由策略同步的初始阶段或增量同步出现异常时,主api路由停止增量同步,并将待同步数据打包成全量数据包并发送至从api路由的同步代理组件,其中,所述主api路由与所述从api路由分别位于不同的数据中心;
[0035]
所述同步代理组件将所述全量数据包中的数据写入一个后端数据库中,并交换当前业务使用的前端数据库与所述后端数据库的访问地址。
[0036]
本发明第二方面提供了一种多数据中心流量调度系统,包括:
[0037]
api路由,用于接收客户端发送的请求,并根据配置的路由策略,将所述请求转发至对应虚拟服务器;
[0038]
虚拟服务器,用于在接收到所述请求后进入自适应负载均衡模式,从负载均衡共享内存读取后端各物理服务器当前的事务数量与网络延迟值;根据后端各物理服务器当前的事务数量与网络延迟值,确定处理所述请求的目标物理服务器,并将所述请求转发至所述目标物理服务器进行处理;基于述目标物理服务器的请求处理结果,更新所述目标物理服务器当前的事务数量与网络延迟值;
[0039]
物理服务器,用于接收所述虚拟服务器转发的请求并对所述请求进行处理以及将处理结果返回所述虚拟服务器。
[0040]
可选的,在本发明第二方面的第二种实现方式中,所述虚拟服务器还用于:
[0041]
根据后端各物理服务器当前的事务数量与网络延迟值,计算各所述物理服务器的响应时间;
[0042]
选择各所述物理服务器的响应时间中最短响应时间对应的物理服务器作为处理所述请求的目标物理服务器;
[0043]
将所述请求转发至所述目标物理服务器进行处理,并对所述目标服务器对应的事务数量执行加1操作。
[0044]
可选的,在本发明第二方面的第三种实现方式中,所述虚拟服务器还用于:
[0045]
获取所述目标物理服务器当前连接下的请求数,并判断所述请求数是否为1;
[0046]
若所述请求数为1,则获取当前连接下的网络延迟值,并记作首次网络延迟值;
[0047]
以存储桶的方式存储各所述物理服务器的网络延迟值,将所述首次网络延迟值放入对应的存储桶中;
[0048]
计算各所述存储桶中所有网络延迟值的中位数,并以所述中位数更新所述目标物理服务器的网络延迟值;
[0049]
对所述负载均衡共享内存中存储的所述目标物理服务器的事务数量执行减1操作。
[0050]
本发明提供的技术方案中,api路由接收客户端发送的请求,并根据配置的路由策略,将请求转发至对应虚拟服务器;虚拟服务器进入自适应负载均衡模式,从负载均衡共享内存读取后端各物理服务器的事务数量与网络延迟值;并根据事务数量与网络延迟值,确定处理请求的目标物理服务器,并将请求转发至目标物理服务器进行处理;虚拟服务器基于目标物理服务器的请求处理结果,更新目标物理服务器当前的事务数量与网络延迟值。本发明在多数据中心场景下支持根据后端物理服务器的网络延迟以及服务器处理请求的能力自适应调整的负载均衡模式。
附图说明
[0051]
图1为本发明实施例中多数据中心流量调度方法的第一个实施例示意图;
[0052]
图2为本发明实施例中多数据中心流量调度方法的第二个实施例示意图;
[0053]
图3为本发明实施例中多数据中心流量调度方法的第三个实施例示意图;
[0054]
图4为本发明实施例中多数据中心流量调度系统的一个实施例示意图。
具体实施方式
[0055]
本发明实施例提供了一种多数据中心流量调度方法及系统,在多数据中心场景下支持根据后端物理服务器的网络延迟以及服务器处理请求的能力自适应调整的负载均衡模式。
[0056]
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”或“具有”及其任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
[0057]
为便于理解,下面对本发明实施例的具体流程进行描述,请参阅图1,本发明实施例中多数据中心流量调度方法的第一个实施例包括:
[0058]
101、api路由接收客户端发送的请求,并根据配置的路由策略,将所述请求转发至对应虚拟服务器;
[0059]
本实施例中,客户端发送请求,经过域名解析后dns返回离客户端最近集群的ip地址,客户端将请求发送至该地址的api路由,api路由根据配置的路由策略将请求发送至对应的虚拟服务器。
[0060]
本实施例中,api路由用于接收客户端发送的请求,并进行请求转发;路由策略是api路由转发的依据。
[0061]
102、虚拟服务器进入自适应负载均衡模式,从负载均衡共享内存读取后端各物理服务器当前的事务数量与网络延迟值;
[0062]
本实施例中,虚拟服务器具有手动配置模式与自适应负载均衡模式两种模式,其中手动配置模式根据预置配置信息进行固定的转发,自适应负载均衡模式根据请求与物理服务器的实际那个进行自适应地转发。
[0063]
本实施例中,负载均衡共享内存即nginx的共享内存;事务数量是物理服务器当前需要处理的请求数;网络延迟值是物理服务器的网络延迟,用于表征物理服务器的响应速度。
[0064]
103、所述虚拟服务器根据后端各物理服务器当前的事务数量与网络延迟值,确定处理所述请求的目标物理服务器,并将所述请求转发至所述目标物理服务器进行处理;
[0065]
本实施例中,目标物理服务器是基于各物理服务器的事务数量与网络延迟值选择的最优物理服务器。
[0066]
104、所述虚拟服务器基于述目标物理服务器的请求处理结果,更新所述目标物理服务器当前的事务数量与网络延迟值。
[0067]
本实施例中,虚拟服务器基于目标物理服务器的请求处理结果,更新nginx的共享内存中存储的目标物理服务器的事务数量与网络延迟值。
[0068]
本发明实施例中,api路由接收客户端发送的请求,并根据配置的路由策略,将请求转发至对应虚拟服务器;虚拟服务器进入自适应负载均衡模式,从负载均衡共享内存读取后端各物理服务器的事务数量与网络延迟值;并根据事务数量与网络延迟值,确定处理请求的目标物理服务器,并将请求转发至目标物理服务器进行处理;虚拟服务器基于目标物理服务器的请求处理结果,更新目标物理服务器当前的事务数量与网络延迟值。本发明在多数据中心场景下支持根据后端物理服务器的网络延迟以及服务器处理请求的能力自适应调整的负载均衡模式。
[0069]
请参阅图2,本发明实施例中多数据中心流量调度方法的第二个实施例包括:
[0070]
201、所述虚拟服务器判断所述请求是否为重新进入的请求;
[0071]
本实施例中,当请求之前进入过物理服务器进行处理,但处理失败,需要重新进入虚拟服务器进行处理,则该请求为重新进入的请求。
[0072]
202、若所述请求是重新进入的请求,则对所述请求对应的物理服务器的事务数量执行减1操作;
[0073]
本实施例中,在请求重新进入虚拟服务器之前,需要将之前进入的物理服务器的事务数量减一。
[0074]
203、api路由接收客户端发送的请求,并根据配置的路由策略,将所述请求转发至对应虚拟服务器;
[0075]
204、虚拟服务器进入自适应负载均衡模式,从负载均衡共享内存读取后端各物理服务器当前的事务数量与网络延迟值;
[0076]
205、所述虚拟服务器根据后端各物理服务器当前的事务数量与网络延迟值,确定处理所述请求的目标物理服务器,并将所述请求转发至所述目标物理服务器进行处理;
[0077]
可选的,在一实施例中,上述步骤205包括:
[0078]
所述虚拟服务器根据后端各物理服务器当前的事务数量与网络延迟值,计算各所述物理服务器的响应时间;
[0079]
选择各所述物理服务器的响应时间中最短响应时间对应的物理服务器作为处理所述请求的目标物理服务器;
[0080]
将所述请求转发至所述目标物理服务器进行处理,并对所述目标服务器对应的事务数量执行加1操作。
[0081]
本实施例中,物理服务器的响应时间是综合考虑网络延迟与物理服务器当前处理事务进度两方面因素的评价指标。
[0082]
可选的,在一实施例中,所述响应时间的计算公式如下:
[0083]
若未设置各所述物理服务器的权重值,则所述响应时间的计算公式为:
[0084]
t=n*d2[0085]
若对各所述物理服务器设置有权重值,则所述响应时间的计算公式为:
[0086][0087]
其中,t表示响应时间,n表示事务数量,d表示网络延迟值,w表示权重值。
[0088]
本实施例中,权重值用于平衡各物理服务器之间的比重,若使用1/w进行计算,则可能导致响应时间的值过小,在计算过程中损失精度,因此采用10000进行放大。
[0089]
本实施例中,权重值由人工预先设置,可以根据每台物理服务器的性能或使用者需求进行设置,提供一个人工干预选项。
[0090]
206、所述虚拟服务器基于述目标物理服务器的请求处理结果,更新所述目标物理服务器当前的事务数量与网络延迟值。
[0091]
本发明实施例中,对重新进入的请求进行事务数量修正,api路由接收客户端发送的请求,并根据配置的路由策略,将请求转发至对应虚拟服务器;虚拟服务器进入自适应负载均衡模式,从负载均衡共享内存读取后端各物理服务器的事务数量与网络延迟值;并根据事务数量与网络延迟值,确定处理请求的目标物理服务器,并将请求转发至目标物理服务器进行处理;虚拟服务器基于目标物理服务器的请求处理结果,更新目标物理服务器当前的事务数量与网络延迟值。本发明在多数据中心场景下支持根据后端物理服务器的网络延迟以及服务器处理请求的能力自适应调整的负载均衡模式,对重新进入的请求进行事务数量修正,保证了计算结果的准确性,响应时间综合考虑了网络延迟与物理服务器当前处理事务进度两个因素,并提供了一个人工干预选项,更加合理地评价服务器处理新请求效率的高低,提高了流量调度的效率。
[0092]
请参阅图3,本发明实施例中多数据中心流量调度方法的第三个实施例包括:
[0093]
301、在路由策略同步的初始阶段或增量同步出现异常时,主api路由停止增量同步,并将待同步数据打包成全量数据包并发送至从api路由的同步代理组件,其中,所述主api路由与所述从api路由分别位于不同的数据中心。
[0094]
本实施例中,全量同步是在路由策略同步的初始阶段或周期性地全量把路由策略数据拷贝至从api路由;增量同步是同步某一时间点后的增量数据。
[0095]
本实施例中,预先配置主api路由与从api路由,更新路由策略时更新主api路由中的路由策略,并同步至各从api路由。
[0096]
本实施例中,同步代理组件是api路由中进行同步处理的组件,接收主api路由发送的同步命令与待同步数据,执行相应的全量同步命令或增量同步命令。
[0097]
本实施例中,全量数据包是全量数据的包文件,全量数据包的打包方法不限,全量数据包的格式不限。
[0098]
可选的,在一实施例中,在路由策略同步的初始阶段,或者增量同步出现中断、数据错误等异常时需要进行全量。在进行全量同步时增量同步会停止,在源端利用redis的机制将数据打包成文件然后传输到目的段的同步代理组件,同步代理组件在接收到全量数据之后先将数据写到一个单独的redis数据库中,即后台缓冲区(back buffer),业务正在使用的redis数据库即前台缓冲区(front buffer),将两者进行访问地址进行交换,完成全量同步过程。
[0099]
可选的,在一实施例中,在增量同步过程中同步代理组件伪装成源端redis集群的一个从节点,接收全量同步之后的增量修改数据,然后写入到目标redis集群中。
[0100]
302、所述同步代理组件将所述全量数据包中的数据写入一个后端数据库中,并交换当前业务使用的前端数据库与所述后端数据库的访问地址;
[0101]
本实施例中,访问地址是连接数据库的地址。
[0102]
303、api路由接收客户端发送的请求,并根据配置的路由策略,将所述请求转发至对应虚拟服务器;
[0103]
304、虚拟服务器进入自适应负载均衡模式,从负载均衡共享内存读取后端各物理服务器当前的事务数量与网络延迟值;
[0104]
305、所述虚拟服务器根据后端各物理服务器当前的事务数量与网络延迟值,确定处理所述请求的目标物理服务器,并将所述请求转发至所述目标物理服务器进行处理;
[0105]
306、所述虚拟服务器基于述目标物理服务器的请求处理结果,更新所述目标物理服务器当前的事务数量与网络延迟值。
[0106]
可选的,在一实施例中,上述步骤306包括:
[0107]
所述虚拟服务器获取所述目标物理服务器当前连接下的请求数,并判断所述请求数是否为1;
[0108]
若所述请求数为1,则获取当前连接下的网络延迟值,并记作首次网络延迟值;
[0109]
以存储桶的方式存储各所述物理服务器的网络延迟值,将所述首次网络延迟值放入对应的存储桶中;
[0110]
计算各所述存储桶中所有网络延迟值的中位数,并以所述中位数更新所述目标物理服务器的网络延迟值;
[0111]
对所述负载均衡共享内存中存储的所述目标物理服务器的事务数量执行减1操作。
[0112]
本实施例中,若请求数为1,则表明该次连接为首次连接,该次连接写的网络延迟值为首次连接的网络延迟;若请求数大于1,则表明该次连接为长连接,长连接时不需要重复测网络延迟值,直接应用首次连接时的网络延迟值。
[0113]
本实施例在,将首次网络延迟值放入对应数值范围的存储桶中。
[0114]
本实施例中,在处理完请求事务后,需对物理服务器的事务数量进行减一。
[0115]
可选的,在一实施例中,所述计算各所述存储桶中所有网络延迟值的中位数,并以所述中位数更新所述目标物理服务器的网络延迟值包括:
[0116]
基于所述网络延迟值的分布范围,依次均分出若干个存储桶,每个存储桶用于存储落入该存储桶对应数值范围内的网络延迟值;
[0117]
计算在各存储桶之前的存储桶中的最大计数值与该存储桶的计数值的和值,并以所述和值更新所述存储桶的计数值;
[0118]
将最后一个存储桶的计数值除以二得到计数值中位数,以所述计数值中位数作为存储桶的计数值找出对应的存储桶,并计算该存储桶中网络延迟值的中位数作为所述目标物理服务器的网络延迟值。
[0119]
本实施例中,最大计数值是小于当前存储桶对应的数值范围的所有存储桶中的计数值的最大值。
[0120]
本实施例中,更新后的存储桶的计数值是该存储桶之前的所有存储桶更新前的计数值累加值与该存储桶更新前的计数值之和。
[0121]
本实施例中,使用网络延迟的中位数而非网络延迟的即时值作为影响因子,提高了整个负载均衡系统的稳定性,防止由于网络的抖动,即时网络延迟增加,导致请求发往处理请求效率更低的后端服务器,并且在一段时间内网络恢复正常后的服务器仍然无法接收请求并及时更新网络延迟的情况。同时稳定的网络延迟数据也能更为客观反映请求端到接收端服务器距离的远近。该操作对网络延迟这个影响因子做了一级平滑处理,一定程度上
保证了系统的稳定性。
[0122]
本实施例中,使用当前存储桶之前的存储桶的计数值的最大值作为当前存储桶新的计数值,取中位数即50%分位数,这样在取50%分位数时,可以保证中位数计算结果不过于发散,缩小了每一次计算结果的差值,丢失的精度也因为后续按比例求值可以忽略不计,从而在没有增加额外时间、空间开销的条件下,对网络延迟这个影响因子做了二级平滑处理,保证在性能测试以及实际生产环境中各台服务器尤其是在处理高并发请求的情况下保持了极大的稳定性。
[0123]
本发明实施例中,以全量同步和增量同步的方式同步路由策略,api路由接收dns发送的请求,并根据配置的路由策略,将请求转发至对应虚拟服务器;虚拟服务器进入自适应负载均衡模式,从负载均衡共享内存读取后端各物理服务器的事务数量与网络延迟值;并根据事务数量与网络延迟值,确定处理请求的目标物理服务器,并将请求转发至目标物理服务器进行处理;虚拟服务器基于目标物理服务器的请求处理结果,更新目标物理服务器当前的事务数量与网络延迟值。本发明在多数据中心场景下支持根据后端物理服务器的网络延迟以及服务器处理请求的能力自适应调整的负载均衡模式,实现了集群间数据的全量同步与增量同步,在路由策略全量同步过程中,实现了数据的快照隔离,使得正在进行的业务不受影响。本发明使用网络延迟的中位数作为影响因子,提高了整个负载均衡系统的稳定性,中位数的计算方法极大地节省了内存空间并保证数据在一定准确度范围内。
[0124]
上面对本发明实施例中多数据中心流量调度方法进行了描述,下面对本发明实施例中多数据中心流量调度系统进行描述,请参阅图4,本发明实施例中多数据中心流量调度系统一个实施例包括:
[0125]
api路由,用于接收客户端发送的请求,并根据配置的路由策略,将所述请求转发至对应虚拟服务器;
[0126]
虚拟服务器,用于在接收到所述请求后进入自适应负载均衡模式,从负载均衡共享内存读取后端各物理服务器当前的事务数量与网络延迟值;根据后端各物理服务器当前的事务数量与网络延迟值,确定处理所述请求的目标物理服务器,并将所述请求转发至所述目标物理服务器进行处理;基于述目标物理服务器的请求处理结果,更新所述目标物理服务器当前的事务数量与网络延迟值;
[0127]
物理服务器,用于接收所述虚拟服务器转发的请求并对所述请求进行处理以及将处理结果返回所述虚拟服务器。
[0128]
本实施例中,每个数据中心包含有一个api路由、多个虚拟服务器以及多个物理服务器,如图4所示。一台虚拟服务器对应多个物理服务器,且各虚拟服务器对应的物理服务器分别位于不同的数据中心,从而实现异地多活。
[0129]
可选的,在一实施例中,所述虚拟服务器还用于:
[0130]
判断所述请求是否为重新进入的请求;
[0131]
若所述请求是重新进入的请求,则对所述请求对应的物理服务器的事务数量执行减1操作。
[0132]
可选的,在一实施例中,所述虚拟服务器还用于:
[0133]
根据后端各物理服务器当前的事务数量与网络延迟值,计算各所述物理服务器的响应时间;
[0134]
选择各所述物理服务器的响应时间中最短响应时间对应的物理服务器作为处理所述请求的目标物理服务器;
[0135]
将所述请求转发至所述目标物理服务器进行处理,并对所述目标服务器对应的事务数量执行加1操作。
[0136]
可选的,在一实施例中,所述响应时间的计算公式如下:
[0137]
若未设置各所述物理服务器的权重值,则所述响应时间的计算公式为:
[0138]
t=n*d2[0139]
若对各所述物理服务器设置有权重值,则所述响应时间的计算公式为:
[0140][0141]
其中,t表示响应时间,n表示事务数量,d表示网络延迟值,w表示权重值。
[0142]
可选的,在一实施例中,所述虚拟服务器还用于:
[0143]
获取所述目标物理服务器当前连接下的请求数,并判断所述请求数是否为1;
[0144]
若所述请求数为1,则获取当前连接下的网络延迟值,并记作首次网络延迟值;
[0145]
以存储桶的方式存储各所述物理服务器的网络延迟值,将所述首次网络延迟值放入对应的存储桶中;
[0146]
计算各所述存储桶中所有网络延迟值的中位数,并以所述中位数更新所述目标物理服务器的网络延迟值;
[0147]
对所述负载均衡共享内存中存储的所述目标物理服务器的事务数量执行减1操作。
[0148]
可选的,在一实施例中,所述计算各所述存储桶中所有网络延迟值的中位数,并以所述中位数更新所述目标物理服务器的网络延迟值包括:
[0149]
基于所述网络延迟值的分布范围,依次均分出若干个存储桶,每个存储桶用于存储落入该存储桶对应数值范围内的网络延迟值;
[0150]
计算在各存储桶之前的存储桶中最大计数值与所述存储桶的计数值的和值,并以所述和值更新所述存储桶的计数值;
[0151]
将最后一个存储桶的计数值除以二得到计数值中位数,以所述计数值中位数作为存储桶的计数值找出对应的存储桶,并计算该存储桶中网络延迟值的中位数作为所述目标物理服务器的网络延迟值。
[0152]
可选的,在一实施例中,所述api路由还用于:
[0153]
在路由策略同步的初始阶段或增量同步出现异常时,主api路由停止增量同步,并将待同步数据打包成全量数据包并发送至从api路由的同步代理组件,其中,所述主api路由与所述从api路由分别位于不同的数据中心;
[0154]
所述同步代理组件将所述全量数据包中的数据写入一个后端数据库中,并交换当前业务使用的前端数据库与所述后端数据库的访问地址。
[0155]
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
[0156]
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上
或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(read-only memory,rom)、随机存取存储器(random access memory,ram)、磁碟或者光盘等各种可以存储程序代码的介质。
[0157]
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献