至顶网网络频道 11月23日 综合消息: 11月23日,在广州举办的“2017中国移动全球合作伙伴大会”上,中国移动联合英特尔公司,宣布在ODCC(开放数据中心委员会)启动面向电信应用的开放IT基础设施项目——OTII(Open Telecom IT Infrastructure)。
当前全球运营商面临网络转型的巨大机遇与挑战,由传统网络向基于通用服务器、开源云计算平台的网络功能虚拟化(NFV)技术架构演进,以提升网络效率和降低成本,成为电信行业的普遍共识。
现阶段NFV应用方案还处于探索过程中,服务器等基础设施如何更好满足IT化的电信应用需求,是包括运营商、服务器供应商、电信设备供应商等在内的整个产业密切关注的问题。
为此,中国移动联合中国电信、中国联通、中国信通院、英特尔等公司,在ODCC发起OTII项目,首要目标是形成电信行业面向网络IT化转型的深度定制、开放标准、统一规范的服务器技术方案。
中国移动研究院杨志强副院长在致辞中说,随着网络重构的逐步推进,在开源软件、开放硬件的基础上进行关键部件的自主研发,将成为运营商新的主流运营模式。中国移动此次牵头发起OTII项目,就是希望与产业链一起,在面向电信应用的IT基础设施方面形成普遍共识与开放标准,打造能够更好满足未来电信应用需求、高效率低成本的通用硬件产品,这对于中国乃至全球运营商的网络转型都具有重要意义。
英特尔网络平台部门亚洲市场开拓总监杜唯扬在演讲中表示,面向数据经济的崛起以及云网融合的趋势,英特尔正在携手广泛的合作伙伴推动网络转型,构建敏捷、灵活和可扩展的网络架构。在此过程中,NFV是实现这一转变的关键技术。一直以来,英特尔与中国移动在传统IT、云计算、网络与数据中心领域保持着紧密的技术合作。此次共同启动OTII项目,则是双方共同促进面向NFV的网络转型与云化转型的最新合作成果。凭借强大的技术积累以及丰富的生态系统资源,英特尔承诺将继续与运营商、研究机构和服务器提供商深入合作,共同引领网络转型的浪潮。
ODCC副主席、中国信息通信研究院云计算和大数据研究所副所长何宝宏博士在发言中强调,未来网络将以数据中心为节点进行重构已经成为业界共识,网络重构的进度、效果将直接影响到运营商未来的生死存亡。如果运营商网络重构步伐太慢被互联网厂商甩开,那么运营商比特管道的价值也将消失。ODCC作为一个数据中心领域的行业开放组织,全力支持OTII,并希望产业链各方一起参与进来,未来还可以在这一领域拓展其它合作,将OTII打造成为具有国际影响力的项目。
ODCC由百度、腾讯、阿里巴巴、中国电信、中国移动、中国信通院、英特尔于2014年联合发起成立,旨在打造中国的数据中心开放平台,推动服务器、数据中心、开放网络等行业统一规范,促进产业合作、创新与新技术应用。目前ODCC的54家会员单位中,基本包括了中国数据中心行业最重要的几家客户单位和全产业链的主流供应商。
据悉,OTII项目日前已经在ODCC服务器工作组正式完成立项,并得到ODCC会员单位的积极响应,目前参与到此项目的公司包括华为、浪潮、联想、曙光、中兴、烽火、新华三等逾十家主流服务器及组件供应商,预计后续还有更多厂商将加入项目。
根据启动会上中国移动和英特尔的技术专家介绍,OTII服务器重点面向运营商网络IT化应用场景的未来业务需求。项目将引入网络加速、NUMA balanced等技术;统一硬件BIOS设置和设备管理接口;尽量统一核心器件选型以及硬件形态等等,以增强服务器的性能、稳定性和兼容性,提升部署及运维效率,更好支撑未来电信业务的发展。
作为ODCC第一个重点面向运营商网络转型应用场景的开放硬件项目,OTII开启了电信行业通过IT创新服务网络转型的新篇章。有中国三大运营商的联合发起、英特尔的鼎力支持和产业链的积极参与,OTII未来在中国乃至全球电信行业网络转型中的影响力和积极作用值得期待。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。