随着传统语音短信业务受到OTT的冲击以及数据业务的快速崛起,运营商也将锚点抛向IDC业务。互联网行业爆发式增长、政府服务外包以及智慧城市等建设将给IDC服务行业未来几年的发展带来更广阔的前景。预计到2016年,国内IDC市场规模将达548亿元,年均增速超过30%。
近年来,通信网络技术的发展对“宽带中国”战略的实施奠定了基础,国内电信运营商已全面启动全光网络建设,传统的PSTN交换设备逐步被NGN软交换和IMS替代,新设备的交换能力大幅提升,需要占据的空间减少,整改过后腾出大量的通信机房,这些机房数量大,分布全国各地,为运营商IDC的建设提供了场地优势,加之利用自身网络带宽优势,运营商依然会在IDC市场上占据主导地位。虽然如此,但重资产的投入以及廉价租金也为IDC建设带来了很大阻碍,运营商如何减少初始投资、快速部署实现盈利和降低运营成本等问题面临诸多挑战。
2015年底,山东联通现网已全面实现“光网山东”,对一些具备条件的退网机房要实施改造成为中小型IDC机房,这些机房遍布各地市,匹配当地政企客户的属地化需求,与大基地IDC形成互补。面对这些规模大小不一的机房,山东联通选择采用微模块的建设方式,按微模块进行统一招标采购,而提供端到端解决方案的华为也成为这次招标的最大赢家。
那么什么是微模块?微模块又为何会得到运营商的青睐呢?
微模块是集IT机柜、精密空调、不间断电源、监控、照明、布线、安防等系统于一体的模块化数据中心产品,每个微模块都是独立的单元,可视为一个单独的小机房,做到微模块与微模块之间解耦,IDC的建设就由这样的小机房集群而成,按微模块建设,可以实现数据中心的分期部署。一方面,由于IDC是面向多用户需求的,根据不同的IT需求,匹配不同的微模块型号,单柜功率密度和TIER等级不同的需求;另一方面,原先需要对整个机房一次性建设,现在只需要按微模块为单位建设,模块化分期的部署,也大大降低了IDC的初始投资,做到边建设边投产,随着客户需求的增加按需部署。
快速部署的建设模式更是符合IDC的建设需求。由于微模块将所有部件都集于一身,所以可以对微模块及其功能单元的容量、尺寸、接口及主要技术方向进行标准化定义,使微模块具备了工业产品化、标准化的特点,每个微模块的功能单元均可以在工厂预制并调试,在数据中心施工现场,工人只需要通过简单的拼装、连接,即可实现微模块的整体交付,就像搭起积木一样简单、便捷,能够大大缩短施工周期,降低施工难度,保证工程按时、准确、有序完成。
IDC的运营维护也非常关键。在这里,不得不提的是微模块集成了两大系统部件——模块化UPS和行级变频空调。模块化UPS具备在线热插拔和按功率模块扩容的特点,大大缩短了维护和扩容时间。对于运营商来说,采用统一系列的模块化UPS,模块备件可以做到统一储备,降低投资,并且运维人员的工程管理界面也变得简洁,大大地降低了机房维护的难度。另外,微模块采用了冷热气流遏制和行级变频空调技术,有效的降低数据中心的PUE。一方面气流遏制避免的机房内冷热气流的混合,使得精密空调的回风温度升高,从而提高空调的制冷效率;另一方面,采用行级变频空调,近端制冷,空调可根据周边IT机柜的热负荷实时的调节制冷量,从而做到精确制冷,降低空调能耗,并且可以消除机房局部热点。对于IDC机房的全生命周期支出,电费占据了总体支出的60%以上,所以PUE的降低可极大地降低机房后期运营成本。
随着微模块技术的演进和IDC市场的不断扩大,我们有理由相信模块化数据中心的建设模式将会逐步替代传统的建设模式,成为运营商转型IDC服务的首选解决方案。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。