万物智能的时代,越来越多企业希望在靠近物或者数据源头的边缘侧使用智能边缘服务,让联接更敏捷,业务高实时,减少云和网络的束缚。据IDC研究显示,到2020年将产生500亿的终端与设备联网,其中50%的数据将会在网络边缘侧分析处理。
日前,华为云智能边缘平台IEF正式开放公测,IEF通过使能端、边侧的计算资源,将华为云AI能力延伸到边缘侧,将边缘节点智能化。随着连接设备的爆炸性增长,以及用户对隐私、机密性、低延迟和带宽限制的需求,企业可以采用云上AI模型训练、边缘模型推理、预测执行的模式,既满足了实时性的要求,同时大幅降低无效数据上云。
IEF服务已率先应用到多个场景如智慧园区、智能制造等。在某智慧园区项目中,通过在边缘侧实现视频智能预分析,运用于深度学习人脸检测与人流分析,云端定义大数据流处理、模型训练等,将海量数据本地消化,避免大量数据回传带来的带宽浪费和时延,降低园区运营成本60%以上。在某梯联网项目,通过IoT设备管理,帮助电梯企业快速完成设备接入云端,配套云端大数据、AI能力,使得电梯具备更强的智能能力。
华为云智能边缘平台IEF,具备灵活易用、功能强大、生态开放等显著优势,满足客户对边缘计算资源的远程管控、数据处理、分析决策、智能化的诉求,为用户提供完整的边缘和云协同的一体化服务。
灵活易用:
华为云智能边缘平台IEF边云生态一致,无论在边缘和华为云保持一样的使用体验,基于同一个云平台,应用和服务构建一次,运行无处不在。Cloud Native的边缘计算平台,边云生态统一,支持容器、微服务、Kubernetes生态以及云服务边缘延伸等,支持应用快速开发、部署,降低应用开发部署成本。
模块化设计,对边缘计算资源的适配,最大限度地容纳用户已有资源和设备,用户可以根据自己的业务需要通过Docker容器技术模块化部署应用。
丰富的边云通信方式 ,提供基于消息(如MQTT)、REST、Streaming的消息通道,满足多种数据上云要求。
支持ARM/x86架构,支持工业网关、工控机等部署,最小可低至256M内存的边缘设备。
功能强大:
•丰富的边侧智能能力,华为全栈AI能力无缝延伸到边缘。比如利用华为在视频领域的积累,提供完善、高效的边缘视频AI能力。
•自研的AI芯片,通过软硬一体的优化结合,提供强大的边缘侧计算能力。
•提供边缘函数管理,基于Serverless架构的边缘快速响应本地事件。基于事件触发函数,提高边缘节点资源利用效率以及响应时间,同时简化设备编程模型以及边缘应用构建成本。
•提供智能边缘平台IoT设备管理能力,提供多种协议,支持IoT数据快速接入云端,让企业聚焦面向垂直行业的应用开发,帮助企业应用快速孵化。
生态开放:
华为具备完整的端、边、云一体化服务能力,通过IEF可以无缝利用华为云丰富的服务能力。
支持第三方边缘节点、设备和服务接入。通过第三方设备“兼容性认证”计划,通过标准化设备定义和接入方式,方便对接各类设备。支持第三方边缘应用/服务接入,快速构建面向行业的边缘智能应用。
边缘计算产业联盟(Edge Computing Consortium,缩写为ECC)ECC联盟的发起者,在工业领域有丰富的垂直行业ISV合作伙伴,与合作伙伴一起推动行业智能化发展。
开源边缘侧软件KubeEdge, 便于开发者对Runtime进行定制和裁剪,降低边缘的使用难度;
目前,智能边缘平台IEF在华为云官网上进行免费公测体验,点击链接可进入官网页面了解:https://www.huaweicloud.com/product/ief.html
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。