扫一扫
分享文章到微信
扫一扫
关注官方公众号
至顶头条
本文介绍了五种负载均衡方式,包括服务器,DNS等方面的应用。从中,我们还进行了简要的对比,您可以清楚的了解他们之间的差异。
负载均衡的出现,让网络大大地缓了一口气。它的“担当”让网络更加高效,合理分配自己的信息,有条不絮地进行着传输、收集和存储。面对庞大的信息流量,负载均衡让他们更加功能化和具体化。现在我们就来介绍一下负载均衡方式都有哪些吧。
负载均衡方式1.
基于特定服务器软件的负载均衡(访问重定向)
很多网络协议都支持"重定向"功能,例如在HTTP协议中支持 Location指令,接收到这个指令的浏览器将自动重定向到Location指明的另一个URL上?由于发送Location指令比起执行服务请求,对 Web服务器的负载要小的多,因此可以根据这个功能来设计一种负载均衡的服务器?任何时候Web服务器认为自己负载较大的时候,它就不再直接发送回浏览器 请求的网页,而是送回一个 Locaction指令,让浏览器去服务器集群中的其他服务器上获得所需要的网页?
在这种方式下,服务器本身必须支持这种功能,然而具体实现起来却有很多困难,例如一台服务器如何能保证它重定向过的服务器是比较空闲的,并且不会再次发送 Location指令?Location指令和浏览器都没有这方面的支持能力,这样很容易在浏览器上形成一种死循环?因此这种方式实际应用当中并不多见, 使用这种方式实现的服务器集群软件也较少?有些特定情况下可以使用CGI(包括使用FastCGI或 mod_perl扩展来改善性能)来模拟这种方式去分担负载,而Web服务器仍然保持简洁?高效的特性,此时避免Location循环的任务将由用户的 CGI程序来承担?
负载均衡方式2.
基于DNS的负载均衡(多机单域名负载)
由于基于服务器软件的负载均衡需要改动软件,因此常常是得不偿失,负载均衡最好是在服务器软件之外来完成,这样才能利用现有服务器软件的种种优势?最早的 负载均衡技术是通过 DNS服务中的随机名字解析来实现的,在DNS服务器中,可以为多个不同的地址配置同一个名字,而最终查询这个名字的客户机将在解析这个名字时得到其中的 一个地址?因此,对于同一个名字,不同的客户机会得到不同的地址,他们也就访问不同地址上的Web服务器,从而达到负载均衡的目的?
例如如果希望使用三个Web服务器来回应对www.exampleorg.org.cn的HTTP请求,就可以设置该域的DNS服务器中关于该域的数据包括有与下面例子类似的结果:
www1 IN A 192.168.1.1
www2 IN A 192.168.1.2
www3 IN A 192.168.1.3
www IN CNAME www1
www IN CNAME www2
www IN CNAME www3
此后外部的客户机就可能随机的得到对应www的不同地址,那么随后的HTTP请求也就发送给不同地址了?
DNS 负载均衡的优点是简单?易行,并且服务器可以位于互联网的任意位置上,当前使用在包括Yahoo在内的Web站点上?然而它也存在不少缺点,一个缺点是为 了保证DNS数据及时更新,一般都要将DNS的刷新时间设置的较小,但太小就会造成太大的额外网络流量,并且更改了DNS数据之后也不能立即生效;第二点 是DNS负载均衡无法得知服务器之间的差异,它不能做到为性能较好的服务器多分配请求,也不能了解到服务器的当前状态,甚至会出现客户请求集中在某一台服 务器上的偶然情况?
编辑推荐
负载均衡技术基础专题
当前,无论在企业网、园区网还是在广域网上,即使按照当时最优配置建设的网络,业务量的发展都超出了过去..
负载均衡方式3.
反向代理负载均衡(缓冲池)
使用代理服务器可以将请求转发给内部的Web服务器,使用这种加速模式显然可以提升静态网页的访问速度?因此也可以考虑使用这种技术,让代理服务器将请求 均匀转发给多台内部Web服务器之一上,从而达到负载均衡的目的?这种代理方式与普通的代理方式有所不同,标准代理方式是客户使用代理访问多个外部Web 服务器,而这种代理方式是多个客户使用它访问内部Web服务器,因此也被称为反向代理模式?
实现这个反向代理能力并不能算是一个特别复杂的任务,但是在负载均衡中要求特别高的效率,这样实现起来就不是十分简单的了?每针对一次代理,代理服务器就 必须打开两个连接,一个为对外的连接,一个为对内的连接,因此对于连接请求数量非常大的时候,代理服务器的负载也就非常之大了,在最后反向代理服务器会成 为服务的瓶颈?例如,使用Apache的mod_rproxy模块来实现负载均衡功能时,提供的并发连接数量受Apache本身的并发连接数量的限制?一 般来讲,可以使用它来对连接数量不是特别大,但每次连接都需要消耗大量处理资源的站点进行负载均衡,例如搜寻?
使用反向代理的好处是,可以将负载均衡和代理服务器的高速缓存技术结合在一起,提供有益的性能,具备额外的安全性,外部客户不能直接访问真实的服务器?并 且实现起来可以实现较好的负载均衡策略,将负载可以非常均衡的分给内部服务器,不会出现负载集中到某个 服务器的偶然现象?
负载均衡方式4.
基于NAT的负载均衡技术(内网cluster和四层交换)
网络地址转换为在内部地址和外部地址之间进行转换,以便具备内部地址的计算机能访问外部网络,而当外部网络中的计算机访问地址转换网关拥有的某一外部地址 时,地址转换网关能将其转发到一个映射的内部地址上?因此如果地址转换网关能将每个连接均匀转换为不同的内部服务器地址,此后外部网络中的计算机就各自与 自己转换得到的地址上服务器进行通信,从而达到负载分担的目的?
地址转换可以通过软件方式来实现,也可以通过硬件方式来实现?使用硬件方式进行操作一般称为交换,而当交换必须保存TCP连接信息的时候,这种针对OSI 网络层的操作就被称为第四层交换?支持负载均衡的网络地址转换为第四层交换机的一种重要功能,由于它基于定制的硬件芯片,因此其性能非常优秀,很多交换机 声称具备400MB-800MB的第四层交换能力,然而也有一些资料表明,在如此快的速度下,大部分交换机就不再具备第四层交换能力了,而仅仅支持第三层 甚至第二层交换?
然而对于大部分站点来讲,当前负载均衡主要是解决Web服务器处理能力瓶颈的,而非网络传输能力,很多站点的互联网连接带宽总共也不过10MB,只有极少的站点能够拥有较高速的网络连接,因此一般没有必要使用这些负载均衡器这样的昂贵设备?
使用软件方式来实现基于网络地址转换的负载均衡则要实际的多,除了一些厂商提供的解决方法之外,更有效的方法是使用免费的自由软件来完成这项任务?其中包 括 Linux Virtual Server Project中的NAT实现方式,或者本文作者在FreeBSD下对natd的修订版本?一般来讲,使用这种软件方式来实现地址转换,中心负载均衡器存 在带宽限制,在100MB的快速以太网条件下,能得到最快达80MB的带宽,然而在实际应用中,可能只 有40MB-60MB的可用带宽?
负载均衡方式5.
扩展的负载均衡技术
上面使用网络地址转换来实现负载分担,毫无疑问所有的网络连接都必须通过中心负载均衡器,那么如果负载特别大,以至于后台的服务器数量不再在是几台?十几 台,而是上百台甚至更多,即便是使用性能优秀的硬件交换机也回遇到瓶颈?此时问题将转变为,如何将那么多台服务器分布到各个互联网的多个位置,分散网络负 担?当然这可以通过综合使用DNS和NAT两种方法来实现,然而更好的方式是使用一种半中心的负载均衡方式?
在这种半中心的负载均衡方式下,即当客户请求发送给负载均衡器的时候,中心负载均衡器将请求打包并发送给某个服务器,而服务器的回应请求不再返回给中心负载均衡器,而是直接返回给客户,因此中心负载均衡器只负责接受并转发请求,其网络负担就较小了?
这种方式的硬件实现方式也非常昂贵,但是会根据厂商的不同,具备不同的特殊功能,例如对SSL的支持等?
由于这种方式比较复杂,因此实现起来比较困难,它的起点也很高,当前情况下网站并不需要这么大的处理能力?
比较上面的负载均衡方式,DNS最容易,也最常用,能够满足一般的需求?但如果需要进一步的管理和控制,可以选用反向代理方式或NAT方式,这两种之间进 行选择主要依赖缓冲是不是很重要,最大的并发访问数量是多少等条件?而如果网站上对负载影响很厉害的CGI程序是由网站自己开发的,也可以考虑在程序中自 己使用Locaction来支持负载均衡?半中心化的负载分担方式至少在国内当前的情况下还不需要?
如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。