ZD至顶网网络频道 12月28日 综合消息:随着在线教育、掌上微课、手机图书馆等新型教学模式和高校校园网络应用的深入,以及笔记本电脑、手机等无线终端的普及,师生们越来越要求方便、快捷、移动的无线校园网络接入,各大高校均在与时俱进,加速实施全方位高质量的无线网络建设。而上海科技大学(以下简称上科大),这所由中国科学院和上海市政府联合创建的一所高水平的研究型、创新型大学,也在不断完善智慧校园信息化环境,提升校园的管理和服务质量,力求建立一个以“移动互联”为主线铺设的校园网络。
上科大学校新校园占地约900亩,总建筑面积约70万平方米,目前已部署6664台高性能无线AP,600多台华为敏捷交换机;通过这些设备构建的校园信息化网络,全校师生可以畅想华为敏捷网络带来的移动化极致体验。
802.11ac wave2产品带来无线性能成倍提升
无线网络的多用户并发性能依然是无线网络部署的一大难题,而高校在无线网络建设过程中,也在充分考虑新建的网络需满足未来大流量需求,对网络设备选型要求更加苛刻严格。伴随11ac wave2标准的规模商用,上海科技大学要求新建网络需要支持wave2标准,来应对未来无线网络的演进及突发流量。
在了解上科大的需求后,华为为上科大推荐了其Wave2款型AP7050DE和AP2050DN,以满足移动教学对更大带宽的诉求。并且国际权威机构Tolly测试结论,也向上科大网络管理人员充分展示了华为AP7050DE的超强性能:采用MU-MIMO标准的旗舰系列款型AP7050DE,整机速率可达2.5G,并且可为Wave 2终端提供的下行流量是Wave 1终端的2倍以上,即MU-MIMO特性可为无线网络带来100%以上的性能增益,同时内置硬件智能天线技术也极大提升了信号穿透能力和抗干扰能力。
业务随行解决移动化策略管控难题
上海科技大学校园网络需要针对不同用户分类(主要是老师/学生/访客),实现不同的出口带宽、访问权限等策略控制。而在全无线移动化的网络环境下,由于用户位置及IP的不确定性,采用传统基于源IP的策略管控力不从心。
上海科技大学部署的华为敏捷校园网络业务随行解决方案,引入了SDN思想来解决传统教育园区在“移动化”和“泛在化”演进的过程中遇到的网络业务部署策略管控复杂问题。上科大网络管理员可以在SDN控制器上从多种维度将全网用户及资源划分为不同的“安全组”,将传统网络中基于用户和IP地址的业务策略全部迁移到基于安全组上来;在预定义业务策略时无需考虑用户实际使用的IP地址,实现业务策略与IP地址的完全解耦,轻松搞定移动用户策略管控的难题。
极致简化网络管理,大幅提升运维效率
上科大新校区的网络建设规模庞大,网络部署后需要对包含AP和交换机在内的超过8000个网络节点进行管理维护,如此量级分散的网元设备无论是开通、升级还是故障替换,对现有的运维人员的人力及技术能力都是极大的考验。如何高效部署维护,简化管理运维也是摆在上科大面前的一道难题。
华为敏捷校园网解决方案通过部署SVF纵向虚拟化技术,将上科大核心汇聚、接入、无线AP纵向虚拟化成“一台设备”进行管理。类似AC+瘦AP的管理架构, AP和接入交换机统一通过核心和汇聚交换机进行管理控制,接入层设备即插即用,模板化配置批量下发,自动升级,针对性的解决了上海科技大学网络架构复杂,维护、管理困难的现状。最终减少90%以上管理节点,大幅减小了网络管理员的工作量,提升了网络运维效率并降低了运维成本。
上海科技大学打造的全无线SDN敏捷校园网络,高效承载了学校的教学、科研和管理,保障了广大师生畅通无阻的在线学习交流。广大师生在校园内能够随时随地畅享无线校园网络,快速访问校园网络内外部资源,使学习、教育和交流更加便捷。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。