在网络优化的主流设备中,负载均衡常被称为是"四七层交换机",担当着重要使命。尽管,负载均衡设备对于很多企业IT管理人员来说已经非常熟悉,但是在具体使用过程中,例如针对四层和七层应用等技术疑问,依然会误+导部分用户并产生应用误区。
那么,四层和七层两者到底区别在哪里?在应用中如何让负载均衡设备更好地满足应用场景的需求呢?对此,国内知名应用交付厂商太一星晨给予了详细解读。
第一.技术原理上的区别。
四层负载均衡,也就是主要通过报文中的目标地址和端口,再加上负载均衡设备设置的服务器选择方式,决定最终选择的内部服务器。
以常见的TCP为例,负载均衡设备在接收到第一个来自客户端的SYN 请求时,即通过上述方式选择一个最佳的服务器,并对报文中目标IP地址改为后端服务器IP,直接转发给该服务器。TCP的连接建立,即三次握手是客户端和服务器直接建立的,负载均衡设备只是起到一个类似路由器的转发动作。
七层负载均衡:也称为“内容交换”,主要通过报文中真正有意义的应用层内容,再加上负载均衡设备设置的服务器选择方式,决定最终选择的内部服务器。
以常见的HTTP为例,负载均衡设备要根据真正的应用层内容再选择服务器,必须先代理实际服务器和客户端建立连接(三次握手)后,才可能接受到客户端发送的真正应用层内容的报文,然后再根据该报文中的特定字段,加上负载均衡设备设置的服务器选择方式,决定最终选择的内部服务器。
在这种情况下,负载类似于一个代理服务器与前端的客户端以及后端的服务器会分别建立TCP连接。所以,从技术原理上来看,七层负载均衡明显的对负载均衡设备的要求更高,设备性能消耗也更大。
第二.应用场景的需求。
七层应用负载的优势是使整个网络更"智能"。例如访问一个网站的用户流量,可以通过七层的方式,将对图片类的请求转发到特定的图片服务器并可以使用缓存技术;将对文字类的请求转发到特定的文字服务器并可以使用压缩技术。
在技术原理上,这种方式可以对客户端的请求和服务器的响应进行任意意义上的修改,极大提升了应用系统在网络层的灵活性。很多在后台,例如Nginx或者Apache上部署的功能都前移到负载均衡设备上。
对于网络中最常见的SYN Flood攻击,七层负载则提供了更好的安全性:
1.四层模式下:这些SYN攻击都会被转发到后端的服务器上。
2.七层模式下:这些SYN攻击自然在负载均衡设备上就截止,不会影响后台服务器的正常运营。
另外负载均衡设备可以在七层层面设定多种策略,过滤特定报文,例如SQLInjection等应用层面的特定攻击手段,从应用层面进一步提高系统整体安全。
现在的7层负载均衡,主要还是着重于应用HTTP协议,所以其应用范围主要是众多的网站或者各种基于B/S开发的应用系统。 4层负载均衡则对应其他TCP/UDP应用,经常用于C/S开发的系统。
四层负载工作模式简单,负载性能高,后台服务器都必须承载相同的业务,
七层负载工作模式复杂,性能消耗高,但带来了更好的灵活度,更有效的利用资源,加速对资源的使用。
那么,对于很多用户关心的链路负载是在第几层呢?通过上面的分析答案显然已经出来了——链路当然是工作在四层模式以下啦!
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。