×

负载均衡原理 负载均衡

负载均衡如何工作求解答?DNS负载均衡详解

admin admin 发表于2022-07-12 06:48:44 浏览106 评论0

抢沙发发表评论

负载均衡如何工作求解答


如果路由选择表中有多条通往目标的路径,则此功能是路由器中转发过程所固有的功能并且会自动激活。 它基于标准路由选择协议(如路由选择信息协议 (RIP)、RIPv2、增强型内部网关路由协议 (EIGRP)、开放最短路径优先 (OSPF) 和内部网关路由选择协议 (IGRP))或源自静态配置的路由和数据包转发机制。 当转发数据包时,它允许路由器通过多条路径到达目标。 前提条件 需求 本文档没有任何特定的要求。 使用的组件 本文档不限于特定的软件和硬件版本。 惯例 有关文档规则的详细信息,请参阅 Cisco 技术提示规则。 负载均衡 如果路由器通过多个路由选择进程(或路由选择协议,如 RIP、RIPv2、IGRP、EIGRP 和 OSPF)获知多个通往特定网络的路由,它会将管理距离最短的路由安装在路由选择表中。 有关详细信息,请参阅 Cisco 路由器的路由选择。 有时,路由器必须从通过同一路由进程获知的具有相同管理距离的多个路由中选择一条路由。 在这种情况下,路由器会选择到目标的成本(也称为度量值)最低的路径。 每个路由进程都会以不同方式计算其成本,为达到负载平衡可能需要对这些成本进行操作。 如果路由器接收并安装了多条到目标的管理距离和成本均相同的路径,则会发生负载平衡。 可使用的路径数受路由选择协议放置到路由选择表中的条目数量的限制。 在 IOS 中,除默认条目数为一条的边界网关协议 (BGP) 之外,大多数 IP 路由选择协议的默认条目数均为四条。 最多可配置六条不同的路径。 IGRP 和 EIGRP 路由选择进程还支持不等价负载平衡。 可对 IGRP 和 EIGRP 使用 variance 命令来实现非等价负载平衡。 若要根据针对协议配置的值确定可安装的路由数,请发出 maximum-paths 命令。 如果将路由选择表设置为一个条目,它会禁用负载平衡功能。 请参阅非等价负载平衡 (Variance) 在 IGRP 和 EIGRP 中的工作原理。 以了解关于 variance 的详细信息。 通常可使用 show ip route 命令来查找等价路由。 例如,以下是某个具有多条路由的特定子网的 show ip route 命令输出。 请注意,有两个路由选择描述符块。 每一个块都是一条路由。 其中一个块条目旁还有一个星号 (*)。 这个符号对应于用于新流量的活动路由。 术语“新流量”对应于发往目标的单个数据包或整个流,具体取决于所配置的交换类型。 对于进程交换 - 负载平衡以数据包为基础,星号 (*) 指向通过其发送下一个数据包的接口。 对于快速交换 - 负载平衡以目标为基础,星号 (*) 指向通过其发送下一个基于目标的流的接口。 每提供一次数据包/流,星号 (*) 的位置就会在等价路径之间轮换一次。 M2515-B# show ip route 1.0.0.0 Routing entry for 1.0.0.0/8 Known via “rip“, distance 120, metric 1 Redistributing via rip Advertised by rip (self originated) Last update from 192.168.75.7 on Serial1, 00:00:00 ago Routing Descriptor Blocks: * 192.168.57.7, from 192.168.57.7, 00:00:18 ago, via Serial0 Route metric is 1, traffic share count is 1 192.168.75.7, from 192.168.75.7, 00:00:00 ago, via Serial1 Route metric is 1, traffic share count is 1 基于目标和基于数据包的负载平衡 可将负载平衡设置为基于目标或基于数据包。 基于目标的负载平衡表示路由器基于目标地址分发数据包。 如果有两条通往同一个网络的路径,则发往该网络上的 destination1 的所有数据包会通过第一条路径传输,而发往该网络上的 destination2 的所有数据包会通过第二条路径传输,依此类推。 这样可保持数据包的顺序,但可能会不均衡地使用链路。 如果一台主机收到的绝大多数流量或所有数据包使用一条链路,则会使其他链路上的带宽闲置。 目标地址较多可使链路得到更加均衡的利用。 若要更均衡地利用链路,请使用 IOS 软件为每个目标地址(而不是每个目标网络)生成一个路由缓存条目,就像只存在一条路径一样。 这样发往同一目标网络上不同主机的流量即可使用不同的路径。 这种方法的缺点是,对于传送发往数千个目标主机的流量的核心主干路由器来说,维护缓存所需的内存和处理要求变得非常高。 基于数据包的负载平衡表示,路由器通过第一条路径将一个数据包发送到 destination1,通过第二条路径将第二个数据包同样发送到 destination1,依此类推。 基于数据包的负载平衡可以确保所有链路上的负荷保持均衡。 不过,数据包到达目标的顺序可能会乱,因为网络内可能存在各种延迟。 在Cisco IOS 软件中,除 11.1CC 版之外,基于数据包的负载平衡会禁用路由缓存的转发加速功能,因为路由缓存信息包括出接口。 对于基于数据包的负载平衡,转发进程会通过查询路由表并选择使用频率最低的接口来确定每个数据包的出接口。 这样可以保证均衡利用链路,但却是一项需要大量占用处理器的任务,并且会影响整体转发性能。 这种基于数据包的负载平衡并不太适合速度较高的接口。 使用基于目标还是基于数据包的负载平衡取决于 IP 数据包使用的交换方案的类型。 默认情况下,在大多数 Cisco 路由器上,接口下都启用了快速交换功能。 这是一种执行基于目标负载平衡的按需缓存方案。 若要设置基于数据包的负载平衡,请使用以下命令启用进程交换(或禁用快速交换): Router# config t Router(config)# interface Ethernet 0 Router(config-if)# no ip route-cache Router(config-if)# ^Z 现在,路由器 CPU 会根据路由选择表中通往目标的路由数查看每一个数据包和负载平衡。 这可能会使低端路由器崩溃,因为 CPU 必须执行所有处理。 若要重新启用快速交换,请使用以下命令: Router# config t Router(config)# interface Ethernet 0 Router(config-if)# ip route-cache Router(config-if)# ^Z 使用较新的交换方案(如 Cisco 快速转发 (CEF))可更快地执行基于数据包和基于目标的负载平衡。 不过,这意味着您需要额外的资源来处理有关维护 CEF 条目和邻接关系的任务。 当使用 CEF 时,您可能会问: 由谁来执行负载平衡,是 CEF 还是使用的路由选择协议? CEF 的工作方式是,CEF 根据要由 EIGRP 之类的路由选择协议填充的路由选择表来执行数据包的交换。 简而言之,CEF 会在计算出路由选择协议表之后执行负载平衡。 有关CEF 负载平衡的详细信息,请参阅使用Cisco 快速转发排除并行链路上的负载平衡故障和使用CEF 执行负载平衡。 这些文档提供了有关不同协议如何选择最佳路径、如何计算其到达特定目标的成本,以及它们如何在适用时执行负载平衡的详细信息。 RIP 简介 IGRP 度量值 - 示例和解释 通过改变 EIGRP 度量值设置优先路由 OSPF 成本 BGP 路径选择算法 本文档说明如何使用 BGP 多路径。

DNS负载均衡详解

负载平衡技术可以平衡服务器群集中所有服务器和请求应用程序之间的通信负载,根据实际时间响应时间进行判断,然后将任务交给最多负载服务器,以实现真正的智能通信管理和最佳的最佳服务器组的性能,因此该网站始终保持并保证其可访问性。为了充分利用现有服务器软件的优势,最好在服务器软件外完成负载平衡。最早的负载平衡技术是通过DNS服务中的随机名称分析实现的。这通常是DNS负载平衡技术。 DNS负载平衡技术的实现原理是为DNS服务器中的同一主机名配置多个IP地址。在响应DNS查询时,DNS服务器将返回DNS文件中DNS文件中记录的不同IP地址,以按顺序按顺序返回不同的IP地址。分析结果是指导客户对不同机器的访问,以便不同的客户可以访问不同的服务器,从而实现负载平衡的目的。到目前为止,许多网站仍然使用DNS负载平衡来确保网站的操作和访问性。从实施和效果的角度来看,主要存在以下优点和缺点:该技术的主要优势的主要缺点如下:首先,技术实施更加灵活,方便,易于运行,低成本,低成本,低成本,适用于大多数TCP/IP应用程序。当存在问题时,无需设置网络专家来设置或维护它。其次,对于Web应用程序,您无需修改​​代码。实际上,即使在其前面,Web应用程序本身也没有意识到负载平衡配置。第三,Web服务器可以处于Internet的任何位置。当DNS负载平衡技术的主要缺点具有上述优势时,其缺点也很明显。主要表现是:首先,无法根据Web服务器的处理能力分配负载。 DNS负载平衡使用简单的旋转负载算法,该算法无法区分服务器之间的差异,并且无法反映服务器的当前操作状态。因此,DNS服务器将HTTP请求分配给背景中的Web服务器,而无需考虑每个Web服务器的当前负载。如果Web服务器在后台的配置和处理能力,最慢的Web服务器将成为系统的瓶颈,并且具有强大处理功能的服务器无法完全发挥作用。不能为具有良好性能的服务器分配更多的吸引力,甚至客户的要求都集中在某个服务器上。其次,它不支持高可靠性。 DNS负载平衡技术不考虑容错性。如果背景中的Web服务器失败,DNS服务器仍将将DNS请求分发给该故障服务器,从而导致客户端不响应客户端。第三,这可能会导致其他网络问题。为了使该DNS服务器和其他DNS服务器及时确保DNS数据在及时更新,以便可以随机分发地址。通常,应设置DNS的刷新时间。问题。第四,一旦某个服务器失败,即使DNS设置被及时修改,您仍然必须等待足够的时间(刷新时间)才能扮演角色。在此期间,保存故障服务器地址的客户端计算机将无法正常访问服务器。总而言之,我们可以从上面的摘要中看到。一般而言,DNS负载平衡技术解决方案不应被视为真正的负载平衡。网站访问的及时响应和可用性,因此该方案现在很少在许多网站计划中采用。

F5负载均衡如何实现,这其中的原理又是什么

F5实施负载平衡的原理分为四个步骤。在第一步中,客户将服务请求发送到vip.ip地址,然后将数据包发送到背景中选择的选定服务器。第三步是根据接收服务器后的路由将响应软件包发送回BIG-IP。接收响应软件包后,源地址将更改为VIP的地址,并发送回客户端,该客户完成了一个标准服务器负载余额过程。这是实现F5负载鲍兰诺以实现负载平衡的原则。-负载均衡原理