ZD至顶网网络频道 03月01日 综合消息:随着全球互联网产业的发展,流媒体、网络游戏和电子商务等互联网业务规模不断扩大,基础资源需求迅速扩张,客户对数据中心要求也越来越高,且数据中心的数量每年保持20%以上的增长。据全球权威电信产业咨询公司OVUM统计,2014年底全球数据中心数量6078个,到2015年上半年上升到6519个。互联网业务的快速发展,数据中心的急速增加,怎样的网络才能更好的支撑数据中心的发展,为客户提供更宽、更快、更安全、更节能的网络?
网络云化是全球互联网发展的趋势,云化的数据中心才能更好的共享网络资源,均衡流量及降低容灾备份成本等。数据中心成云,对数据中心的承载网,提出新的挑战。
超100G大带宽
超大带宽,有容乃大。互联网业务的蓬勃发展,各种传统的业务、服务在互联网得到发展,并衍生出各种热门的互联网业务。互联网用户数呈现爆发式增长,据统计,全球互联网用户每年以20%速率增长。业务的扩充,用户数的增加,需要提供更多的数据中心和更宽的承载管道,以满足业务的发展。数据中心互联步入超100G时代。
适应数据中心的安装条件
因地制宜,推陈出新。绝大部分的数据中心没有专门的传输机房,传输设备需要部署在数据中心机房,以节约成本。一般的传输设备在供电、散热、机柜等特性上,不太适合安装在数据中心机房,需要对机房进行改造,增加安装、维护成本。所以急需要新的传输设备,满足和数据设备供机房的要求。
极致的用户体验要求更低时延
极致追求,极致体验。金融客户需要低延时,以提高的业务交易量及容灾、备份;网游客户需要低延时,以提升清晰、流畅的快感;物联网及车联网需要提供更低时延,以提升客户的体验。低时延的设备和解决方案,可以为数据中心带来更大的竞争力。
简单便捷的维护接口
开放接口,智能运维。互联网一个特点就是“快速、灵活”,问题的快速响应,业务的快速发放,链路的灵活规划,设备的灵活部署等,做到这些需要一个开放、智能的平台,所以数据中心需要即插即用、开放式、智能化、易部署的设备。
针对新的挑战,华为创新性提出了面向云数据中心互联的光传输解决方案,具备超大带宽,高集成,低功耗,简易、开放等特点。其中新开发的OptiCloud OSN902系列光传输设备具有:单波200G,支持Flex Grid,单纤容量大于20T;盒式设计,前进风、后出风,1+1交直流供电,适配各种数据中心安装条件;高度集成,2U高,6个业务槽位,单机2.4T容量;板卡、模块即插即用,易安装,易运维;开放式的管理接口;可满足端到端管理和业务快速发放。
2016年3月14日-18日,Cebit2016展会将在德国汉诺威举行,华为展台将现场展示数据中心互联、智能光管理、T-SDN等关键技术,让您身临其境感受OTN(Optic Transport Network )技术给ISP(Internet Service Provider,互联网服务提供商)等行业用户带来的革命性创新。3月15号华为ISP峰会上,OptiCloud OSN902将面向全球重磅发布,我们诚挚邀请您到现场体验DC云时代互联的无限精彩!更多详情,请点击了解http://enterprise.huawei.com/topic/2016Cebit_cn/index.html?utm_campaign=cebit16q1&utm_medium=hwdc&utm_source=ebghome&source=ebghome
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。