企业规模在发展,IT系统当然会越来越多,越来越复杂。但随着IT系统复杂程度的大幅度提高,因此而产生的运维成本也不断攀升。在一个应用相对复杂的IT系统中,解决相同的问题,企业往往需要付出比以往更多的人力和物力。因此,简化IT的需求也变得异常突出。
华为作为企业网市场的劲旅,其不仅在核心网络方面拥有自己的核心技术,更在处于企业网边界的接入层有着独到的产品思路。而这套思路的核心便是简化无线网络的组建和维护。
简单?不简单!
对于普通消费者来说,WiFi几乎是最简单、最方便的网络接入方式,一个简单的无线路由就能基本满足手机、PC、电视和其他智能设备的网络接入需求。但俗话说量变产生质变,当一座楼宇或一个园区内成千上万台设备需要同时链接WiFi时,问题就变得异常棘手。
楼宇内部结构千差万别,如何才能做到有效覆盖?如何布置WiFi热点才能在用料最省的情况下做到最好的覆盖?是什么在干扰我的WiFi信号?我网速慢、网页打不开,怎么办?
这些问题看似简单,也是我们在日常工作中经常会遇到的情况。但对于任何一个运维人员来说,这些看似简单的问题往往非常棘手。因为影响最终用户网 络接入体验的因素千千万,想要一一排查几乎是不可能的,而光靠经验也不是每次都灵。最终,大量的企业资源被消耗在了这些琐碎的问题上。我们一直在强调业务 系统的简化,但在这些细枝末节的地方就没有一套简便的解决方案么?答案显然是否定的。
作为一套专门针对网络运维的软件,华为eSight为企业提供了一套智能化、自动化的分析、检测工具,让企业能够用最简单的方法解决网络接入方面那些琐碎而繁杂的问题。
移动化+智能化
而在5月底举行的华为2015 HNC大会上,华为更是推出了全新的eSight Mobile移动端软件,让企业管理员手中的智能手机成为排查网络故障、优化运维的利器。目前,这款软件已经推出了安卓版本,而iOS版本也会在今年11月登录AppStore。用户只需下载移动端程序并通过WiFi或移动网络连接后端的eSight服务器就可以实现对企业网络的分析和管理。
当然,移动端的推出只是解决了网络运维移动化的问题,而智能化才是eSight Mobile的核心优势所在。
首先,运维人员可以使用eSight Mobile实时与所在的Wifi热点链接,查看热点的工作情况。同时,eSight Mobile也可以与后端的eSight管理软件相配合,给出当前热点的优化建议,做到防患于未然。而这一分析过程是全自动完成的,用户只需通过简单的一 两步操作就可以得到所有可用的信息和优化建议。
当然,针对日常运维中最常见的“上不了网”或“网速慢”等问题,eSight Mobile还可以结合后端的eSight管理软件,自动检查从终端到认证服务器的整个网络链接,实现对问题的快速定位。而这一过程在过去往往需要运维人 员针对问题终端进行繁琐的操作并联系后端进行大量的配合,费时费力。
另一方面,华为在未来也计划将整个eSight Mobile的API开放给第三方合作伙伴,让合作伙伴能够借助华为全面的底层功能开发出适合各个行业和企业的定制化应用,实现更广泛的智能网络运维。
总结:
大道至简,细处见真章。当所有企业都将IT发展的重点放在那些大系统、大应用上的时候,华为却没有忘记在细节上下功夫。总体来看,eSight Mobile只是eSight运维系统的一个辅助,但这个功能却能够将网络运维推向另一个层次。就像所有好用的东西一样,体验过一次就再也离不开了;而当 企业网络越来越易用的时候,华为的王者地位也就越来越稳固。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。