在MWC2019世界移动大会期间,“中国联通MEC边缘云商用加速计划发布会”在场内同步举行。数十家业内与联通达成战略合作,共同探讨MEC边缘云技术标准、平台架构、组网方案、落地实践等。
九州云CEO张淳(左)
九州云在此次发布会上获得了“中国联通2018年MEC边缘云金牌合作伙伴”的殊荣,至顶网记者在发布会上对九州云CEO张淳进行了现场采访。
对于5G的应用方向,中国通信领域流传着这样一句口号:4G改变生活、5G改变社会。业界普遍认为面向5G的杀手级应用,企业级应用将是一个核心爆发点。九州云CEO张淳在接受记者采访时,也表示非常认同这样的趋势。
根据MWC举办机构GSMA的研究,在初始阶段,5G网络将集中力量提升4G网络的容量,以支持不断增长的移动数据流量需求。在增强型移动宽带(eMBB)服务方面,如4K / 8K等超高清视频将是一个能够利用5G特性的重要方向。
张淳表示,在视频的具体应用场景上,相对于消费者应用,九州云更加关注工业应用场景。这在九州云“刀具监测与寿命预测智能管理边缘计算平台”的案例当中,可以很好的佐证他的相关观点。
刀具行业是传统工业的代表之一,在刀具使用量不断增加的情况下,一些问题也在不断产生,比如无法精确追溯刀具流转,刀具寿命统计人工手动统计费时费力;30%以上的刀具寿命都被设置为冗余而浪费;刀具磨损、崩刀等过程无监控,质量风险大。市场上现有刀具加工计数预测法、加装传感器物理监测法等刀具监测解决方案,均存在部署慢、准确率低等弊端,同时边缘侧环境部署复杂、灵活性低,不利于大规模统一管理,整体维护监控,且升级维护成本高。
在这方面的问题,利用基于数据分析技术与5G网络的开源边缘计算管理平台将很好的予以解决。基于OpenStack的核心云与边缘云平台,实现边缘侧工业数据的快速处理和基础服务的快速提供;集成强大的CNC底层数据采集能力,适配不同品牌不同型号的数控设备,利用数据分析、AI手段对刀具的情况进行实时监测;边缘侧基于5G网络快速获取数据,中心云端储存分析,部署时间比传统刀具监测模式提高90%以上,硬件成本比传统模式节约95%以上。张淳认为,由于良品率等指标对传统制造企业的成本影响很大,在这些领域进行IT投资,对客户来说,非常容易衡量投资产出比,应用速度也就非常之快,应用前景也将非常广阔。
此次发布会的主题是面向边缘计算, 张淳认为,OpenStack基金会已经成立专门的边缘计算工作组来特别关注云计算向边缘演化的趋势,如定义相关用户场景、讨论相关工具和架构等,以便对边缘计算基础架构提供更好的支持。九州云作为国内领先的开源技术服务提供商,在多个边缘技术相关的开源领域积累了雄厚的技术实力,2018年九州云成为开源边缘项目“StarlingX项目”始创成员单位之一,并在全球8个技术委员会(TSC)中获得唯一的一席中国厂商席位。九州云是编排相关技术Tacker项目全球第一的贡献者,在边缘底层Undercloud部署和分发领域,九州云参与并发起了“Airship项目”,可以说九州云在边缘基础架构和边缘编排项目中都具备领先的技术渊源与实力。
谈及九州云与中国联通的合作,张淳表示,九州云一直致力于为中国用户提供优质的基础设施云服务,在计算、存储、网络的集中管理方面有着深厚的积累,而这些优势可以延续到边缘计算领域,尤其是对开源解决方案有着高级别要求的电信运营商,九州云能够很好的将这方面的能力赋能运营商合作伙伴,以提升其对客户的最终交付能力。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。