至顶网网络频道 05月04日 综合消息:2017年5月4日,赛特斯自主研发的柔性云基础平台“赛云”,凭借在云计算领域的创新能力以及电力行业的成功实践,斩获云计算领域重量级奖项—“Cloud China 云帆奖”之“云计算优秀解决方案/产品奖”,再次证明了赛特斯在云计算领域的技术影响力。
“Cloud China 云帆奖”颁奖现场
为了进一步加快推进云计算产业的发展,推广普及相关应用,表彰为产业发展做出突出贡献的单位和个人,“Cloud China 云帆奖”自2015年开始评选,成为业界最权威的云计算奖项之一。其中,“云计算优秀解决方案/产品奖”的评选对象是国内外云计算解决方案和产品,参选的云计算解决方案和产品必须已投入使用,并在新技术方面有较大成就,为行业开创全新的市场空间。所有奖项均通过公众投票和专家评审等环节,并最终由大会专家委员会综合评定。
作为柔性系统与柔性服务理念的开创者、践行者,赛特斯公司一直将可感知、可重构、可演进作为网络演进方向,多年持续推动云计算领域的技术创新,研发的“赛云”解决方案已广泛应用于公有云、私有云、园区云等多个领域,并在电力等行业成功开展云计算实践。2016年,国家电网信通公司采用了赛特斯“赛云”平台,为其建立管理中心系统集成仿真测试平台,实现对运维管辖的信息系统进行详细的非功能性检测,增加上线后的安全保障,确保国家电网“云”可管可控,协助其为广大用户提供一流的服务体验。
赛特斯公司的“赛云”解决方案基于Operstack开源平台自主研发,可根据客户需求进行定制开发,具有良好的可扩展性。采用业界领先的SDN技术实现网络虚拟化,让网络按需分配,实现网络即服务,可以帮组企业实现存储虚拟化,让企业告别昂贵、专用的存储设备及方案,让存储成本更低,并且安全可靠。通过虚拟防火墙、虚拟负载均衡、虚拟VPN,“赛云”实现了网络功能的“热插拔”,并通过OpenStack的云计算平台,变身虚拟资源管家,让企业的“云”可管可控。
面对国网信通仿真实验室仿真应用系统较多,多个系统测试时网络配置会冲突的难题,赛特斯为国网信通电力信息系统仿真实验室,提供了基于SDN网络虚拟化的赛云系统FlexCloud,可实现测试系统逻辑网络与物理网络的解耦,将不同的仿真业务或用户看做相互独立的租户。每个测试系统作为一个租户,“独享”测试资源,配置错误不影响其它测试系统,更不会影响整个物理网络。
同时,基于SDN的“赛云”解决方案可提供了IT资源的全虚拟化能力,能快速为各电力信息系统仿真提供全部资源。解决方案主要包括网络虚拟化FlexVisor、计算虚拟化FlexCompute、虚拟化分布式存储FlexStorage和统一云管理平台FlexScape等全部组件。
“赛云”平台可提供动态资源管理功能,在应用业务负载不高的情况下,减少虚机数量,降低整体能耗。在突发业务访问需求情况下,可从云资源池中增加虚机,动态满足前端业务需求。“赛云”平台资源池可便捷的实现资源扩展,提供资源预留功能,提供动态资源管理功能,通过对虚拟机的优化放置和迁移,提升资源利用率。
服务国家电网的成功实践开启了赛特斯在能源行业开展前瞻性实验项目的先例,同时为公司在后续更多行业发力提供了很好的合作契机与示范效应。此次摘得业界大奖,证明了“赛云”已经获得了客户和行业机构的共同认可。赛特斯将不断完善“赛云”解决方案,进行产品的优化创新与解决方案技术的积累提升,服务于更多来自能源、教育、医疗、金融等行业的用户,帮助客户轻松实现“一步上云”和“云”的可管可控,快速推动创新和业务转型。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。