扫一扫
分享文章到微信
扫一扫
关注官方公众号
至顶头条
如今,企业关键应用的网络流量已经越来越大,瓶颈问题越来越严重了:网络视频业务、股市、企业网络数据大集中、3G手机、网络办公应用、网络支付、南北互通……
作为有关键网络应用的企业,你是否正在忍耐低下的应用网络访问速度?你是否困扰于低速的网上支付?你是否正在为多个网络数据中心的高速就近访问而发愁?
如何应对网络流量突长带来的种种网络访问问题?为此IT168网络频道组织了本次网络负载均衡用户应用研讨会,并组织了本次网络负载均衡应用案例专题。我们邀请了相关领域的技术专家,并广邀企业的IT部门经理、网络管理员、网络工程师参与,大家一起面对面交流,共同探讨解决之道。
研讨会主题:
1、 负载均衡的总体分类介绍
软件负载均衡、路由交换级负载均衡、4-7层硬件负载均衡总体介绍。
2、 你的企业是否会有应用流量瓶颈问题?
A、企业多ISP接入链路负载均衡
B、企业关键网络应用访问瓶颈(主要情形:单用户执行应用时网络流量大)
C、多网络数据中心如何管理流量
D、IDC机房、大型网站数据中心(主要情形:巨量用户的访问流量)
3、 当前采用的何种办法?
软件负载均衡、路由交换级负载均衡、4-7层硬件负载均衡
4、4-7层硬件负载均衡的技术讲解
主持人:
非常高兴各位今天下午抽时间到IT168来参加这个交流会。这个交流会的主题之前跟大家都沟通过了。今天主要目的就是网络流量出现瓶颈的时候该怎么办?可能有的企业并没有这个现象,有的企业已经有了,有的企业可能已经解决了。因为大家之前都进行过交流,各位也可以相互认识一下。
负载均衡的总体分类介绍
主持人:
在座各位可能对网络负载均衡都比较了解了,不过我想请老吴对负载均衡的发展做一个介绍,这样可能系统一点。
Array吴越鹏:
我抛砖引玉。
就我做负载均衡的了解,我觉得负载均衡是来源于应用的高可靠性。高可靠性解决的方法就是冗余的思路。最早很多大型的应用系统,IBM计费应用系统,我们对 HA很关注。最早的做法就是双基热备做的比较多,现在也有很多这样的架构。一台机器在工作,一台机器备用。如果一台机器挡掉了,另外一台机器可以继续应用。后来用很多软件做的,每个公司都有自己的一套。负载均衡沿用的是HA的概念,HA也有一些问题,首先没有发挥两台的作用,一台在工作,一台闲置在那儿,只有出了问题才会用,大部分时间都是空闲的。没有充分发挥投资的能力。这时候就产生了其他的一些负载均衡的技术,这是在96年前后,就产生了负载均衡的思路。
负载均衡最早是停留在四层,我们叫负载均衡交换机,它还有一个负载均衡交换机的概念。比如说思科、北电,然后北电收购了阿尔卡亚,他们做这个有很多的端口,一些服务器接在上面,网络流量过来用我们的平衡交换机连接到服务器,这就避免了HA冷备和热备带来的问题。它的好处就是我们可以把流量均衡的放在机器上,我们还可以检测机器的健康状况,挡掉了我就知道了。这是第一代的负载均衡产品,它一般工作是在TCP协议,有ANK的技术,根据应用不同,模式也不一样的,分担在服务器上。
在当时的负载均衡交换机上,99年左右,像一台交换机能卖到上百万。现在这些交换机已经到不了这么贵了,几十万已经不错了。最近发展比较快,这是泡沫的初期,就是99年左右,大规模出现了。当初我也卖过很多这个交换机会,卖了很爽,但是后来日子就没有这么好过了。
2000年以后,泡沫逐渐的散去,但是应用太复杂,产生很多新的需求,包括链路的接入,不同的流量分担到不同的链路,这是一个需求。另外从应用层带来的需求,这个比较复杂,结合我们HGDP的方式,它的均衡策略要求的比较细。比如说一个企业可能有很多的用户群,有金牌用户,有银牌用户,有铜牌用户。它可能有不同的服务器,它响应不同用户群,就要有不同的响应能力。金牌用户,比如说把服务质量比较高的机器响应金牌用户。中等的,稍微差一点的响应银牌用户,而我们所有的应用很可能只针对一个用户,就只有一个站点,你怎么通过技术把流量智能的分担下去。
第二个,就是客户端始终保持在同一个服务器上,不能跳来跳去。
第三个就是WEB的发展,带来了很多应用加速,服务器的能力就有问题,你不能是无限的扩充服务器,这是一个投资,另外一个效果也不怎么样。还有一点就是有时候会有迸发的流量,比如说世界杯,新浪突然一下流量就上去了。迸发的流量加速。
第四个,就是电子交易带来的。这对负载均衡有两个要求,一个是加速的要求,比如说耗CPU,耗内存,这有一个加速的要求。一个是带来的均衡的要求,比如说质量的检查等等,这时候均衡要求也就出来了。这就有了另外一种集成化的趋势。就把四层的负载均衡提升到应用的层面上,能够给应用加速。网络流量逐渐纳入到新的需求了。现在就有很多 新的负载均衡,有不同的叫法,基本上就是七层的。
它的CPU交换技术有一些变化,刚才说有些企业,像IBM,EA,他们自己的中间件也有交换的软件,也可以做一些工作,但也有一些应用问题在里面。另外还有一些开源的软件也可以做,但是没有专业的硬件设备功能好,负载均衡的算法也不完备,而且不能把这些集中在一个设备上。
之后的趋势,我感觉各个厂家的做法,就是这些大的功能集中在一个上,就是流量的、链路的、加速的、压缩的。比如说一些流量管理控制,比如说TDP的流量工作,它有更专业的做法来做,这个是很多厂家也没有想到的。我也想跟大家交流一下,谈谈大家的看法。
看一下企业是如何面对应用流量瓶颈的?
主持人:
刚才你提到有的企业用开源的负载均衡,我记得上个星期,我们技术交流群里面有一个杭州的哥们就说他们单位用了一个开源的负载均衡,做了服务器的负载均衡,然后不过实现了三台的服务器负载均衡,另外几台就摆在那儿,总是属于空载,可以起到一定作用,但是效果不是很好。
在座的如果对负载均衡比较了解,大家交流起来可能比较好一些。刚才做的是自我介绍一下,现在大家介绍一下企业信息化的应用,像有没有流量瓶颈方面的问题,这样介绍一下,方便相互交流。是谁发言,还是轮流来介绍一下。
某某:
我们以前是十台服务器,以前用的比较旧的,服务器就是单片机,以前流量大的时候用的爱立信,也扛不了多少并发,15万以上就挂了。
主持人:
你们只有一个点吗?
某某:
就只能上一个。因为这个东西那时候用量比较大,所以中间人比较多,只要打螺旋杠。
某某:
就是流量圈上去是吗?
某某:
对,就是流量一下长到几百亩,并发DDS,所以只能用这几个地方。
主持人:
你的意思是这个地方瘫了,那个地方撑着。
某某:
对,这就是DNS解析,或者是我解析到自己域里面,让它返回到自己的域里面,就像警察跟小偷一样,很有意思。
某某:
你们有没有自导系统的服务器,四到七层的防火墙?
某某:
防火墙我们没有,防火墙不是我们的强项。
某某:
其实负载均衡在Linux下面有一款负载均衡其实做的非常好,Linux负载均衡主要是开发人员用的。
主持人:
我们先各自做个介绍,这样会好一些。待会儿大家不太清楚的话,讨论起来也不会也很深入。
某某:
目前我们负载均衡用的是F5,双级的。现在马上就要增加一套设备,就是和总参CN,因为采用HA成本比较高,我们采用另外一款NGANX,也是Linux下的。测试基本上完成了,效果还不错。
某某:
维护的费用就不用掏钱了。
某某:
你那个负载均衡主要是链路电路吗?
某某:
服务器群组,应用服务器,WEB服务器。
主持人:
你刚才说用的什么技术?
某某:
NGANX。
某某:
跑在Linux上?
某某:
Linux,FMG都可以,都测试过了。
主持人:
这个挺不错的。
某某:
查了一下据说这个在国外用的比较多。也是通过一些专业网站去问的。
某某:
现在还没上线是吗?
某某:
没有,因为四个选购还没完呢。升级是可以的,就是不换硬件。
主持人:
那你们用交换软件,有多少台服务器?
某某:
我们测试的时候就是十台。
某某:
流量大吗?
某某:
就是十台并发。
某某:
容量大的时候,并发的时候这个软件能承受吗?
某某:
我们现在是用两台服务器,放两台服务器。
某某:
它就是所有流量先过服务器,然后再往下。
某某:
对,服务器可以好一点。
某某:
用的是什么数据库?
某某:
是Oracle系列的。
主持人:
Oracle系列的。
某某:
我们公司买那个花大价钱了,7000多万买的。
主持人:
太夸张了。
某某:
主要是用在CA那块,所有的业务平台还是跑的F5,CA走的是专线和VPN。
主持人:
有些你们还是用在硬件设备上吗?
某某:
对,主要是IC。
某某:
我们主要用的是IBM,还是比较顺利的,有一些网关接口到后台的,至少有两台服务器,基本上就是五台。我们也是用的F5。
某某:
这个主要是用的比较低,健康检测的策略不是很好,不是硬件的问题。
主持人:
你们现在用新版本了吗?
某某:
现在已经用了好几期了,版本也不一样。
某某:
你用的哪个型号?
某某:
三四的?
某某:
三四的。
某某:
老的是二四的。
某某:
其实我们也考虑一些其他的负载均衡,但是更换的成本太贵了。我感觉负载均衡的策略怎么应用也达不到我们的要求。好比我们有一台设备,有时候跑的慢,但并没有完成死。
主持人:
你说跑的慢,是指你们内部用,还是外网?
某某:
很简单,比如你这个机器跑一个循环,就好比数据库也有差异一样。这种情况我们也没有什么好办法。
某某:
您说的这个是负载均衡的难点。
某某:
有很多 策划人为了省服务器的服务费用,就编很多的脚本。
某某:
就是二次开发。
某某:
定制的那种。
某某:
服务器当中应该有Linux。
某某:
这有几个方法,一个是响应时间,一个是链接库。但是一般要求很精确, CPU有多高,那当然用Linux就最好了。我们现在用的是SMP的,专门针对二次开发的,不大容易解决的。
某某:
这个基本上能实现。
主持人:
像这块你们……
某某:
我觉得这个领域前途是很好的,市场是有的。因为 现在和今后有怎样的发展方向,他自己也会考虑的。像这种负载均衡要想降低成本,提升能力,可能是很难的。像Oracle数据库也有基于JAVA的,有基于DB的。
主持人:
这个跟网格是密切相关的。
某某:
现在程序越来越大了,一个是并行,一个是网格,不可能还是资源型的。
某某:
大家用F5的是居多数吧。
某某:
刚才提到了应用加速,这个加速,我们也关注过,但是这个对我们来说内部网还用不到这些专门的东西。这个加速是哪个级的?
某某:
是以Web为主的。
某某:
你说的加速主要是在服务器前面,还是在后面?
某某:
服务器前面,就开始压缩。
某某:
这个不知道你们有没有考虑,你通过数据在服务器前面传输过程中,因为这是最直观的,就是在前还是在后。这个数据在前端加速之后产生的数据包和数据库,在查询的时候我查这个可能是前端,可能通过服务器有一个时间段的消耗。这个专业技术在整个流程里面……
主持人:
你说的这块主要……
某某:
因为我们做过一个时间消耗的大概测试,我们把数据放在一块进行测试,很复杂。有些是集中数据库,有的可能不是,也反映了其他的问题。所以我们就想找到适合的。
某某:
现在负载均衡服务器一般应用于WEB服务器。
某某:
你做的那个调查,那个BOS系统问题主要在哪儿?
某某:
谈了半天,问题还是在数据库,他们用的是(西我)的,现在又多了一个(西我),这个网络设计空间的处理原来是一套规则,这个规则只有这套软件才可以,但是占用资源很多。
某某:
这个还是有争论的。
某某:
我们可以抓住一个交易量,来一个比较。
主持人:
里面牵涉的因素太多了。
某某:
其实这个加速对数据库没有任何作用,其实它只是一些缓冲,不能有太复杂的安排。 你们这个能不能换在内网的前面,它一般是放在服务器的前面。现在我内网访问服务器比较慢,我放在内网服务器的后面,这个有没有加速作用?
某某:
我不知道你说的是哪儿。
某某:
我现在说是你们能不能放在后端。
Array吴越鹏:
就是后端的。
某某:
对。
Array吴越鹏:
这个是双向的。这有几种方式,一种是数据的压缩,一个是PC占数据流的消耗,一个是客户端和服务器端的压缩。
某某:
不是压缩,就是放在内网前端。
Array吴越鹏:
没有。
某某:
做到了,我自己访问新浪就可以了。
某某:
第一次访问可以,第二次就不行了。
Array吴越鹏:
就是它覆盖到局域网来了。
某某:
这就是一些复杂的覆盖的规则。
Array吴越鹏:
这可能是你今天看到的昨天新闻。
某某:
不会。它更新的时候更新的部分就没有看到,还用按原来的速度访问。就是我访问了,你同时再访问,速度加速。如果我访问了,你访问是我两个小时的新闻更新了,还是原来的速度。
某某:
我了解两种技术,一个是服务器端前面的,一个是在数据库流里面。
某某:
最重要它是减少ACHP。
某某:
这是个别的情况,终端比较被动,中国一般是这样的,一般大媒体对应一些小流量的。大HC买一两台几十万的设备就可以了,不可能小点都买这么贵的设备。
主持人:
这个技术含量很高。有的是专门做这块加速的,有的是另外加速的。
某某:
加速我们做过实验,其实你把 Linux优化得很好,然后它自带一个压缩,基本上流量加速没有什么作用。
主持人:
F5的加速作用并不是最好的。关于加速这块它是带有某种技术,我之前专门讨论了一个加速。待会儿我们接着讨论。然后你介绍一下你们这边的情况。
某某:
我们这边负载均衡链路方面做过,实际上就是大家讲的,结论就是负载均衡就是针对服务器兼容的,而链路方面所谓的负载均衡,包括市面上讲的负载均衡,好象都是一些QS。我有两条链路,每条链路我想限制流量,这就所谓的四至七层。
主持人:
还有DNS解析,就像你们那个。
某某:
DNS解析就是IP转换。
主持人:
也算。
某某:
电力方面就是QS优化比较多,比如说在营销做,他有两条线路,一条一千M,一条五百M,五百M是满足内部的,一千M的是接外部的,接网通的,接电信。他所谓的均衡就是路由的概念,或者是把自己的业务导出来。
某某:
那满足这个需求吗?
某某:
不行,千M的话,F5肯定做不到。
某某:
那现在怎么样?
某某:
那就是说艾斯贝尔 做得更多就是QS上的?
某某:
对,我觉得负载均衡就是链路的,这更像一个QS的概念,移动这两年也在做,不知道去年有没有做出来。
某某:
内网的这种安全性跟我们原来测试的不一样,原来是靠链路的,内网向外的流出非常严重,只要你是到一两百M的话,就会有内网安全的问题。
某某:
这种情况还是很少的。
某某:
比如说对方超过10M,超过5M,我直接就挡掉了。另外你只要击破我的,我就可以找到你的IP。如果那个人练手了,那就比较麻烦,我可能控制你。这样的话,就是你没有安全的控制。
某某:
但是有的情况下是不安全的。
某某:
每个人的情况不一样。
某某:
你自己的装网关了,你的公网肯定走你这儿了,你的专业网走你的加密。对于学校来说,没有什么太多的问题,比如说教研室安装那个,宿舍可能不安装。
Array吴越鹏:
高校把这个分成两部分,一个是学生流,一个是校园网。学生爱做什么爱做,然后电信去管学生。
某某:
没错。就是你专业网用专业渠道,你校园网还有渠道。
某某:
我做的客户里面,学校是非常复杂的,流量也非常大。
某某:
学校的需求得一千M,它就是几个线路,一个千M,一个百M的联通。以前室内是免费的,后来千M满了,就收费了。
某某:
现在你必须控制费用了。
某某:
当时我做了几个省的控制,他们最多的一个月控制大概5万的费用,一个月就把几台机器控制出来了。
某某:
他们是压了带宽?
某某:
不是,这是市场部压的。市场部说,我要抢市场,PPT本来是1G,我全压缩到500M,我有,网通、电信都没有,然后再给你用,过一阵给你200M。实际上就是一个节流,一个是 开源。当时南京电信还是网通,专门做了这个,但是按流量收两三个月就省回来了。老外都这样做,你流量多少,消耗多少,我都清楚。而中国就是一个自己提升自己。
其实为了加速,移动做的很好的,当时悉尼奥运会的时候有一个需求,中国移动访问奥运网站,那时候视频流很难做,当时有一个加速软件想去卖给他们,还有一个伊斯泰格,这个在军口用的比较多,那个反而是最合适的。
某某:
外国都是端到端的。
某某:
当时我们测试过,都是跨网,这个是外网、这个内网,但是考虑视频会议就有点问题了,数据传输的话是没有问题。但是如果传过来的数据,有三个打成报表就有问题了。这边做数据采集,财务的,那边做一个设计方案,这种情况效果不是很好。这个应该大家很理解了,就是数据流不行。
某某:
其实最难点,因为JSK是不可以Catch掉的,你怎么解决这个问题?
某某:
基本上就是做视频压缩。
主持人:
视频压缩是很难的。
某某:
有一些独特的压缩方式,效果还是挺好的。
某某:
就是你的数据过来,给你打包,传过去,那边解包。
某某:
能那么久一直做下去,相当不错了,是北大,还是清华的一个中科院院士。
主持人:
你们这边是不是也有很多视频压缩的吧?
某某:
其实我们专门是做联通的跨网的视频压缩,做的还可以,声音效果不是太好,但是视频挺好。
某某:
那传的图是电信的是吗?
某某:
对,他们帮我们截下来。从我们来说的话,效果不是特别的好,因为我们好多程序都是基于DS的。CS也有,但是后来砍掉了,改成DS了。
某某:
CS跑不起来了。
某某:
对,跟他们说了,他们就改成DS了。而且专家说加速对于我们不是太一样,他们是针对RS的,我们LOCO这边有很多的办公室,一般来说负载方面还可以。这边对于保护方面还是比较多的。基本上是这样。
某某:
你们官网过来以后就是电信的?
某某:
电信这边说你访问内网有2M的协议,我们访问外网没有协议,我们绑的UK。
某某:
中国电信是跨运营商之间做的,还是直接做的?
某某:
这个不是太清楚。
某某:
有的在中国电信这边。
某某:
对。
某某:
有的是在国外的。
某某:
跨域的这种。
某某:
它是直接找的中国电信,中国电信给我们接过来的,是指定好的。我们本来是 自己找的,但是人家把钱给了。他们直接找的咱们这边。
某某:
在办公室里面访问外国的网站,只要不是IP范围内的就不用收费。
某某:
比如说访问因特耐特就收费了。
某某:
对,主要是牵扯到视频,他投入很庞大,光终端就两百多万。这个东西是这个,它外网的话,觉得中国不会有太大的应用程序,就不会给你太多的。
某某:
两百多万。
某某:
这些终端都是国外用集装箱运过来的。这个跟我们没关系,我们只管调试,只要连上就可以了。
某某:
这是公司强制指定的,你只要访问内网就限制。
某某:
老外花了钱就是看效果,看流畅不流畅。
某某:
这就是一个加速。
某某:
对,它其实就是靠终端打包和解压缩,这比其他的要用的多。
某某:
这个还是线路优化的。
某某:
我觉得设备逻辑上也没有太大问题,如果要是768的话,它就是指定的了。
某某:
视频虽然达不到太高的程度,就是达到流媒体的程度。
某某:
我刚来的时候介绍了,我们那边实际上服务器比较少,我们负载均衡的应用不是在服务器,而是在链路上。因为我们现在具体的应用,就是下面有教研室,有机关,有一万个学生,原来是一百个链路,但是不够,现在是两百个链路。我们原来从电信拿了一百M的,马上就跑,学生和机关、教研室都一起,再搞一个过来之后,目前来说还没有用负载均衡,只是手工的做一些。学生八点钟一开马上一百M,九点钟一下班就下来了,然后设备上六十几M,周末的时候一百M起来了。但不是同时的。周末的时候大概九点钟,家属区就到了一百M,学生也很高这就麻烦了。
外面的WEB也要安排,我们负载均衡几乎没用,因为服务器也不多。基本上用的比较少。我们现在流量其实也可以不做,但是我们领导想做。因为我们原来接的是网通的,我们想长宽的也比较快。我们用长宽的时候跟北京网通的线路有问题,网通的访问特别慢,电信就可以。你SP要解决一个故障的问题,一个是访问越来越快。以前我们F5的设计里面带有3DS,你标了外网了,它根据南北访问的情况看哪个速度快,就过来。他提供这样一种功能。这是一种方法。
然后首信跟德国合作推出了一些产品,可以做服务器桌面。因为我们下面基本内部的人员访问的时候以前学生的IP都已经规划好了。我们现在不想在IP基础架构上改变太多,包括基础软件。就是你能用行,你只要在我服务器上一加,能跑就起来了就可以了,不希望改上面的东西。因为以前我们跑起来的时候,有服务器,服务器就是真实IP。服务器过来以后转下去就有新的IP。首先说我要做负载均衡,我四级一架,上了CAP。这样一搞,我们大概工作服务器全部要换掉。然后因为服务器除了我说的那些之外,还有一些教研单位的,那个服务器大概几十台,一换全都换。我跟他们说你们能不能这样,真实IP也可以跑,虚拟IP也可以。他说回去考虑考虑。过一段时间他跑过来说,你们能不能跟电信商量一下,白天跑的快,一到晚上家属都用上了,比较慢。他们说这个IP对长宽来说是够的,现在你的服务器不想动的话,我这个相应的服务器不用动,就直接可以做到这个效果。 我说网通那边改一个路由不太现实。因为这些是集团下面的小公司,他们做的路由,只是在形式上的,下面走的也不一样的。你不能要求上游的IP也很好的工作。
其实我要求是很苛刻的,我说你可以换成虚拟IP,这样可能比较合理。
某某:
你们用的是真实IP吗?
某某:
我们现在有一部分是真实IP。我们那边具体情况就是这样的,我们正处于选型阶段。
某某:
你们是两个百M吗?
某某:
对, 我们是两个百M,目前来说学生是一百M,主要是早上八点钟到九点钟这段很跑的很慢。现在目前就是学生那条链路上用O2的防火墙,我选择的电驴、P2P,那些乱七八糟的,它上面都有,我都选中了,选中了它还是一百M,我不知道迅雷这种东西,选中了是不是管用。因为我们以前最开始没用O2防火墙的时候就用了Linux,在网上下了一个插件,那时候一用马上有效果。现在一选之后还是一百M。
某某:
迅雷一升级,包括WEB迅雷,WEB迅雷是很少的。
某某:
我发现WEB迅雷 一起来马上就完蛋。WEB迅雷跟迅雷还不一样。
某某:
因为它有国产开发的,它只是在国内应用。PDF也是这样的,因为这个在国外用的少,国内用的多。
某某:
实际上它就查源代码。
主持人:
你的意思是要买国产的防火墙?
某某:
不一定是国产的防火墙,而是合适的防火墙。因为WEB迅雷起来了,下载的内容始终是那一丁点,用的人再多也是访问一个东西,它的资源少。像BT资源太多了,随便就可以下。你把它卸下来了,一大块卸下来了。但是有一些人有需求的,PDF就考虑10M,它提前跟你打招呼,但是对鬼子来说这个没有做到最大化的利益。觉得这个研发就是没有必要。所以这是有一个周期的。
某某:
因为它就是拿协议分析然后做一个升级包,拿每年的服务器。
某某:
其实我们总结一下,一个就是链路上会用负载均衡,一个是带宽上要用负载均衡。然后人家从南北访问过来3DS的方式不知道有没有?
主持人:
你们说的是全局的吗?
某某:
就是从南北过来以后,我就开始探测你。
主持人:
这个是公测的吗?
某某:
我开始测试你的IP,然后你就过来访问这个IP,然后传到我下面区域里面。
某某:
刚才说QS更多的样本,一般是指LB,我们很少做这种流量的管理控制。主要是有流量选择的问题,南北进来的问题。
某某:
实际上它是一个大网管。
某某:
你说的增加原因,我们跟F5挺像的,进来就是对DNS先解析,我们也一样,然后判断你这个南北,然后让你走哪条路。一般都是通过这种方法来做的。另外也可以用真实IP实现的。
某某:
那我现在有多段的需求呢?
某某:
还有些厂家是有策略的,所谓策略就是不指定目的的。
某某:
有一个开源DNS解析的,如果你设计的时候就加了流量,你那个有真实,有虚拟,虚拟的……
某某:
虚拟的只要你访问到IP就可以了。
某某:
真实的呢?
某某:
真实的也一样,只要访问到就可以了。
某某:
这个是不是跟那个口有关系,如果那个只有一个口,真实的就可以跑。
某某:
一个口的话,一般也是可以做麦克耐,一个口可以多个VLAN。
某某:
就是它有几个口,这个口先来,然后再用,就可以用透明模式。另外有三个口,这个是十口,这是可以的。如果它只有一个端口,下面放一个交换机,不同的VLAN去做。
某某:
或者是麦克耐,但是这个网端不太好。
某某:
不走VLAN的话怎么走?
某某:
就相当于HUB。
某某:
上面跑多个网站,我就不管你。那个以前我们也搞过。我发现真实IP和虚拟IP都放在上面,就可以了。
某某:
一般人都不愿意这样。如果是透明的话,我们有一个叫二层,但是不是太好。
某某:
我们的需求里面可能就是这个。这个需求是OPEN的。
某某:
如果有两百M带宽的基本上都可以做。
某某:
只要流量均衡就可以了。
某某:
链路的还是什么的,如果是QS的话……
某某:
其实我们还是关心性价比,大家都知道F5好,我们把F5叫过来就是了解一下,如果我们有钱,就说F5来吧。
某某:
其实现在负载均衡技术都非常普遍。
某某:
为什么我们说运营商不考虑这块,因为他连F5都不用,就用大路由,那个就可以了。
主持人:
刚才你对加速关心很多的,你们那边情况是怎样的?
某某:
F5去年推出了很多的产品,我们做了这方面的研究和测试。我们做了负载均衡,负载均衡四层已经做了很好了,但是它有两个格式,康柏主要是负责开源的。当时英特尔给了400万的投资,想跟它一起做。但是英特尔犯了一个错误,从国外找了两个MBA过来,然后那两个MBA拿了年薪五六十万人民币,但是干了一年一台机器没卖过去。后来就算了。当时我们用了他们的LC,LC最大的问题,它是娱乐用的,我们军网不能尝试各个单位去安装这种,有些人素质很低,他也不升级,你给他装杀毒软件也不升级,这造成了内网向外的问题。
他们的产品我们都测试了,但是服务器端没怎么用。服务器端就是Linux压缩不能打开,你自己再做优化。它有一个用处,就是内网向外访问的,我这台电脑访问波音公司,这样可能速度是很多的,这种做的比较好。
某某:
但是如果是电信的话,这个问题是很多的。
某某:
如果是内网往外攻击,是不是可以有一个策略,比如说你多少访问量,它有那种策略。你并发大概多少?或者是流量多少?
某某:
基本上业余时间一连上马上就是一百M,因为我们有内网向外的。
某某:
就是内网向外有没有什么解决问题?
某某:
我们也上不了几百M。
某某:
你们是几个出口?
某某:
1个G的。
某某:
几个外线?
某某:
我们就知道有这么一个情况。
某某:
它那个应该有几个系列的高端的,几个软件要运行到平台上,都可以使用。
某某:
这个不容易。
某某:
服务器跟应用层的话不是很容易。
某某:
如果要加速的话就不行。
主持人:
他的意思就是从DNS攻击去考虑。
某某:
我们刚才大家谈到都是应用级的。如果电信级就是应用到三四级市场,它实际上很简单,这个市场也是很大的。
主持人:
我问一下,你们在用QS过程中有没有什么问题?
某某:
目前还没有,就是切换的时候慢一些。
某某:
有一个切换片吧。
某某:
有一个硬件级的,有一个软件级的。那种模式好象是,但是我不知道F5的值是多少,我测过这个,两台切换的时间大概是1分钟。我怀疑是配置有问题。
某某:
你用了那个同步吗?
某某:
那个没弄,我怕那个有问题。我们05年用那设备,07年买的,也开到期了。
某某:
如果信号要求分工的话,业务可能会受到影响。
某某:
所以我们加班也要解决这个问题。
某某:
我看到有两种方式是吗?还有一种方式是什么?
某某:
还有一个是硬件级的,串口级的一个东西。
某某:
那个是更快是吗?
某某:
它当时来说,这两种方式配上来之后,它的解决方案就是中间有路由,或者里面有算法去选择。而且你可以配那个交换时间。
主持人:
你试用的是威尔的产品吗?
某某:
没有,05年时候来了很多厂家,一批又一批的,现在稳定就是F5,防火墙是首信的,被首信逼的没有办法了。我感觉首信办法是很多的。
某某:
我们买了电信的,没用几天就放仓库的,过两天有人借走了,打了欠条,后来不见了,反正我们也不用,关系户借走了,谁的亲戚,后来也不问了。
主持人:
在座的各位对技术这方面好象很了解的,我觉得技术方面再讲一下。
某某:
你们的产品有什么好的优势,也学习学习。
Array吴越鹏:
我过一过。
主持人:
你讲一下跟VMware产品的区别,因为大家都比较了解了。
Array吴越鹏:
好的。
像我们这款产品和F5的V9,还有一些BSCC的产品,都是近代的应用交换器,它集中三个系列的功能,一个是应用层的,就是服务器做了四层的、七层的。一个是应用加速的。我们采用的三个技术块,一个是HDP的连接,一个是TDP的压缩,一个是跟我们服务器连接,和后端的应用相连,降低服务器的负载,这是一个技术。还有一个是缓存,它是一个反向带来的,一个是正向带来的。一个是HDP的压缩,还有一个硬件的加速。
某某:
你们带一个压缩功能包吧,因为我们测试的很多的产品,压缩效果比Linux好不了到哪里去。有一个趋势就是硅谷有一个叫Y2,它一直可以做到用户的客户端。
Array吴越鹏:
不同的是我们用的是硬件加速卡,根据你压缩的数据不同加压。你们还知道我们有硬件加速方面,一个是网络,网络就是广域的异地容灾,不同地域的数据中心,还有DNS,还有带宽管理流量,我们有优先级队列。
某某:
类似于P2P。
Array吴越鹏:
我们没有那么复杂。我们还有一个动态路由。主要是这么三大块。ABC一般来讲就包含这几个大功能,F5的V9也一样,不多讲了。
还有负载均衡这块,普通的概念就是多个服务器把流量分担过来。其实我们这个策略和方法,有一个形象的比喻,就像看病。比如说很多的病人去医院要挂号,你去消化系统的,还是呼吸系统的,还是中枢的,首先进行一个分诊,然后到了呼吸系统再分诊。我们这个设备就像这个机制。首先我们先把用户分解,金牌客户、银牌客户。每个组可能有多台服务器,我们把数据流去哪个组,叫组策略。比如说服务器均衡的方法就是麦斯,通过两级的策略来进行。这样的话就更加明确。这是我刚才讲的一个例子。
实现里面的内部技术就是四到七层的分担,也有两种模式,一个是后门的模式,穿过设备的远地点,远地不变,一个是反向代理模式,经过我们测试之后,这个就变了,变成了我们的设备。反向代理模式有一个优点,就是可以做一个互动,做一个Catch。七层的负载均衡主要是对一些包头,里面的一些 测量式、UL的。负载均衡里面还有一个经常 提到的概念,就是局域性,比如说A第一次访问服务器,很多应用的需求就是希望后来A服务器,而不是访问B。这是应用的需求。我们更喜欢移动计费系统、网站,它就是做这种限制。这里面有很多简单的负载均衡,包括一些软件的、硬件的。我们要根据UL,根据你的IP来进行计算。不同的算法来做。
四到七层的负载均衡,我们去年加了一到二层,二层就是针对麦克耐这种机器,直接到服务器,什么都不改变。还有防火墙的负载均衡可能是用二层的好办一点,更透明的把这个流分摊掉。还有一个就是IP层的负载均衡,只关心端口的。这是跟端口有关,我们增加了两组。
应用加速,我们主要是强调四种,一种是压缩,包括硬件压缩,压缩盘。一种是连接互用,这个是充分利用了PCP1.1的规范,根据不同的客户端IP来做,这样效果在我们服务器和设备之间 可能有几个点,在客户端我们能使用三个客户端。这样就降低了服务器的TCP处理的要求。可能在设备和服务器之间建立一些巴赫,就达到很好降低服务器负载,就卸载掉了。很多四至七层的负载均衡厂家,包括我们,对DS收购了麦斯比勒,这个技术也很好。麦斯加速主要是在一些刀的处理上,有一些专门的QS。这是关于DNS开源的方法,还有厂家的,还有TCP的区别。
我以前也做过几款,用过这个东西,但是它也有问题,你不知道它什么时候坏掉,坏掉了还得解析。而且它是开源的,很多企业就可以做分析,一个服务器有很多的实例。它自己也能做服务器的检测。但是它给客户建议的解决方案,都是建议一个硬件加速。它都是硬件应用设备,包括IBM也有这样的模块,我忘了叫什么模块了,在几个移动公司,他们的计费平台都是这样的。
我觉得性能是软件开源一个最主要的问题。在策略上没想到做的那么细。我们以前也碰到过很多的客户,负载均衡的要求很小,包括检查服务器端口的好坏,TCP能不能建,就完了。还会检测链接库等等,看到CPU、内存等等。每个厂家有自己的做法。我们也讨论过。但是这个方法、思想很不错,实施起来解决方案要带一个软件很麻烦。这些方法缺少硬件加速的功能。
对PC设备来讲,性能上还有专门的操作系统,有专有的PC的IP,还有加速卡,他们的均衡算法,我就不多讲了。
在四至七层的负载均衡上面,有些客户可能有加速的要求,压缩和Catch的成本,不同的功能有不同的软件,不同的应用设备。我们最大的问题就是不同模块之间传递的数据包,把这些功能集中在一起。然后我们一个技术,可以做到数据流和内存的处理,防止模块间跑来跑去。这么多的功能集中在一个盒子里,可能有内存是不是充沛的问题。基本上还是不错的。
解决方法我总结了三点,一个是服务器负载均衡,一个是硬件加速,我们这个设备既能做双并,也能做单并。一般说双并吞吐量小一些,单并可能结构小一点。我们基本上用得最多的应用就是WEB应用比较多,包括WEB中间件,像制造业用中间件比较多的地方。一个是流媒体的加速,我们专门做了SP和SSP的模块。
我们在国内卖的最多的还是TCP的负载均衡, 最贵的反而卖得最多。我们卖的基本上都是TCP的负载均衡。炒股的时候能不能装一个客户端软件,它自己有一定的加密。它的并发量还是挺大的。都是对性能的一个挑战。
某某:
现在服务器并发是多少?
Array吴越鹏:
我们是200万。我们马上要新出一款APV6000,离我们最高端可能还有一点距离。
某某:
实际能有多少。
Array吴越鹏:
实际的还没有出来,我还没有拿到具体的参数。我们的优势部分是HTTP部分,TCP部分我们高端的可能没有F5高。至于说 七层上我们速度还是比较快的。七层很重要的一个指标,就是1秒钟所响应的速度,我们是7万。TCP,我们可能在连接数上差一点。负载均衡的价值还是有的。另外应用加速方面,我们有一个两级态势的方案。比如说你说的斯坠,我们用了两级Catch,一个是做斯坠的硬盘,我们这个设备会做第二级Catch,放在斯坠硬盘之上,给这些服务器再做一层。我们是基于内层的Catch,你有一些算法,比如说UL,比如说你十台的服务器,做Catch的时候,每台服务器可能内容不一样的,这会造成没有充分利用,因为我们UL的想法可能每台服务器算法是不一样的。我们是简单的静态的,我们只有两级Catch是我们大力推广的方案。
某某:
Catch这个方向,是大型网站最顶端的吗?
Array吴越鹏:
对。
某某:
你的那个是不是靠用户端?
Array吴越鹏:
靠近用户端,先到我们设备,如果我们的设备上有Catch那个,就直接返回去了,如果没有再到服务器。 这是有端口协议,它会分析。这个不用担心的。
当然说中间是不是有几毫秒的差距,这个是都有可能的。一些小的误差可能会有。另外我们Catch的时候可以强行Catch,定期会做Catch,包括一些过滤。电子交易主要是RSS,现在有很多银行的服务器打算自己来做,这样比较耗费资源。这个很耗CPU,他也能做,但是得不偿失,用他们CPU做太浪费了。把他们的SOA预算弄到我们设备上来,用我们的设备 更经济,出来的还快,同时我们还做负载均衡,这样的话可以更好一点。当然还可以Catch Web压缩。我们跟一些银行也有合作。
对于公共业务是应用加速,这是它的价值。对用户来讲可以改善 他的访问体验,因为Web加速了企业来说可以提高应用的性质,很关键的是它降低了对服务器的支出,以前可能是十多台服务器,现在需要五六台就可以了。访问量增大的时候,可以增加虚拟IP支出,这是对投资的一个保护。
最后一部分就是网络滞留,就是服务器应用加速,最后是一个亮度的部分。我们讲的亮度部分就是容灾,很多大的企业都提倡过,在北京、上海、广东三个数据中心做异地容灾,以前也有很多是冷备的,比如做终级业务系统,就是冷备的。北京出问题的时候才切过去,但是真正出现了问题不一定切不过去。你即使切过去了也不一定认。同时这种方法也浪费了上海大量的资源。通过我们这种新的容灾方式,可以让三个中心都是IT的,用我们的设备来区分数据流,你是去上海,还是去广州,还是去北京。我们有两种,一个是静态的测试,一个是动态的测试。比如说北京的客户从北京上网,我们就希望他访问北京的网站速度更快。假如这个人出差到上海了,我们希望他在上海上网速度很快,这就是静态的方式。当然这个是根据客户的DNS来确定他是某一个地域,是电信的,还是网通的。在我们设备 里也经常会更新,我们关于中国的各大网络地址段,是南电信的,还是北电信的,根据网络地址段区分它。如果是网通的用户,就用网通的电路来支持这个企业。当然返回也要通过这个电路,从哪儿来的从哪儿回去,不能从网通来的,从电信回去,这是很不好的。这是我们跟数据中心的合作。
某某:
数据中心的数据同步是咱们做的吗?
Array吴越鹏:
那就不是我们要考虑的,是数据中心的应用层面的,比如说数据库同步,通过软件就可以的。
某某:
你今天只是负责用户访问的时候。
Array吴越鹏:
流量的一个平衡。
主持人:
数据库加速的问题是另外一个问题。
Array吴越鹏:
我们只负责前面也一块。
至于链路的负载均衡,我多讲一下,有入站的,还有出站的。入站就是DNS,当然我们可以把刚才讲的BSL广义的一些概念应用到入站当中来,通过网通、电信也可以应用到链路负载均衡上来,都用这个模块来看。入站通过智能的DNS,翻译成网通的,有静态的,是均衡的,可以加长的,有多种算法可以选择。有平行的,也有链接的。
关于出站也有两种方式,一种是链路拼的,一半一半,一半网通,一半电信的。一种是策略路由,就是根据源地、IP和目的端口,不但可以根据目的确定走哪条路,你是走网通的,是走电信的,还是走教育网。你可以根据源地,比如说教师使用的IP站,可能有172,这部分上来的流,就走一个比较好的链路。比如说学生上来的流,就可以走电信的,铁通的链路等等。这就是策略路由。原来做路由的时候,也有路由服务器,可以做策略路由。实现方式就是根据NNT来实现的。它是翻译成电信的链路。这是链路负载均衡。
带宽管理,就是我们可以把数据流做一个优先级的排列,不同的优先级有不同的带宽,我们公司内部没有买那些设备,我们自己的设备就可以做优先级,设置哪个优先级,包括其他的一些下载,普通的访问那些是低的,这个部分是都可以自己做的。这部分不多讲了。
总的来说就是三大块,一个是服务器均衡问题,一个是应用的加速问题,一个是链路负载均衡问题。我们整体负载均衡就这几个解决方案。
看看各位有什么样的想法和问题?
某某:
我们担心的价格。
某某:
测试完了再说价格。
Array吴越鹏:
价格我们是主要不考虑的。
某某:
因为我们原来想上首信的,后来来了好多厂家,说了之后我们都不敢用它了,便宜那么多我们能不能用它。我们作为行业用户,不是说没有力量,也没有必要自己弄,但是也有点担心,就是太贵了。我们想的就是合适,这个东西放上去用起来不会像买的太便宜又去买,用的太贵,也不合适。
Array吴越鹏:
考虑一个性价比。
某某:
对,我们就是想找一个合适的。
Array吴越鹏:
我们有几个系列的情况,我们有低端的,A系列的,1200,2200,3200,还有6000。
某某:
空间是怎么弄的?
Array吴越鹏:
空间就是并发链接的,100万的,200万的。
某某:
是靠里面的硬件的链接,还是软件的链接。
Array吴越鹏:
就是系统上面的。我们是按功能模块来分的,比如说加速模块,你不要,就可以便宜一点,这个压缩要不要?不要,也可以便宜。SOA我们这款买的方法是不一样的。
某某:
大概100万是多少钱?
Array吴越鹏:
就是百万并发的?
某某:
我们就关心价格。
如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。
5G已至 转型当时——服务提供商如何把握转型的绝佳时机
去集群 更超群——大容量网络演进之路
2019 IBM 中国论坛
H3C 2019 Navigate 领航者峰会
助推数据中心网络现代化转型 打造灵活可靠基础架构平台