美国德克萨斯州休斯顿-2024年4月8日-Hewlett Packard Enterprise(NYSE:HPE)日前宣布将在HPE Aruba Networking Central上集成多个生成式AI大语言模型,以拓展其AIOps网络管理能力。HPE Aruba Networking Central是HPE云原生网络管理解决方案,并托管在HPE GreenLake 云平台上。此外,HPE同时宣布,Verizon Business将纳入HPE Aruba Networking Central以扩展其托管服务组合。
不同于其他仅通过API调用公共大语言模型的生成式AI网络方法,HPE Aruba Networking Central的全新内置大语言模型采用了创新的预处理和防护措施,旨在提升用户体验和运营效率,并重点关注搜索响应时间、准确性和数据隐私保护。HPE Aruba Networking借助业内最大的数据湖之一,拥有近400万台网络设备和超过10亿台客户终端的网络遥测数据,这些数据将为用于HPE Aruba Networking Central预测分析及建议的机器学习模型提供强大动力。同时,全新的生成式AI大语言模型将融入HPE Aruba Networking Central的AI搜索功能,并作为 HPE Networking Central现有基于机器学习的 AI 能力的重要补充,以提供更深入的洞察、更佳的分析以及更主动的功能。
HPE Aruba Networking首席产品官David Hughes表示,“现代网络客户需要将安全优先、AI驱动的洞察力纳入其关键基础设施中,而这恰好是我们所致力于提供的服务。通过此次积极举措以及在HPE Aruba Networking Central上部署多种大语言模型,HPE正在积极拥抱生成式AI带来的强大能力,并延续了其在AI创新方面的辉煌历史。”
HPE Aruba Networking始终秉承安全优先原则使用AI,并通过将运行在HPE GreenLake 云平台的HPE Aruba Networking Central大语言模型进行“沙箱化”处理,以保护个人和客户身份信息 (PII/CII) 。此外,HPE Aruba Networking Central通过专有的定制化大语言模型确保客户数据安全。该模型可移除PII/CII数据、提高搜索准确性,并针对网络运营问题提供亚秒级响应。
作为其扩展功能的一部分,HPE Aruba Networking Central的生成式AI模型训练数据集规模是其他云平台的十倍,其中包括数以万计来自HPE Aruba Networking的公共文档,以及多年来积累的来自客户的三百多万个问题。
自2014年推出以来,HPE Aruba Networking Central提供的强大功能,可帮助用户对有线和无线局域网、广域网以及IoT网络进行配置、管理、监控和故障排除,实现网络运维的全生命周期功能集成。HPE Aruba Networking Central是一款软件即服务(SaaS)产品,主要以年度订阅形式销售,并提供基础(Foundation)和高级(Advanced)两个级别的订阅模式。全新基于生成式AI大语言模型的搜索引擎将在HPE的2024财年第二季度推出,并包含在所有级别的许可中。除了作为独立的SaaS产品外,HPE Aruba Networking Central还作为HPE GreenLake for Networking(网络即服务,NaaS)订阅的一部分,可通过HPE GreenLake平台提供服务。
Moor Insights & Strategy副总裁兼首席分析师Will Townsend表示,“如今,客户正在寻找能够切实改善业务的实用AI应用。在高效网络管理领域,数据和模型至关重要。AI对于网络和安全操作来说并不陌生,但生成式AI是以其自然语言界面为基础的。其挑战在于如何将查询与AI算法紧密结合,以提供相关且有意义的业务成果。在独立且互不干扰的沙箱中提供一套专用大语言模型可保证隐私并提供最佳的性能。随着HPE Aruba Networking Central新功能的发布,HPE推出革新性的生成式AI功能,在强化安全的同时不影响网络性能。”
Verizon Business等合作伙伴正在积极利用HPE Aruba Networking Central或是Verizon托管SD-Branch解决方案,助力企业提高网络和应用性能,实现更敏捷、可预测的业务成果,同时减轻内部 IT 资源负担。
好文章,需要你的鼓励
香港中文大学与华为诺亚方舟实验室合作开发了PreMoe框架,解决了大型混合专家模型(MoE)在内存受限设备上的部署难题。研究团队发现MoE模型中的专家表现出明显的任务专业化特征,据此提出了概率专家精简(PEP)和任务自适应专家检索(TAER)两大核心技术。实验证明,DeepSeek-R1 671B模型在精简50%专家后仍保持97.2%的MATH500准确率,内存需求降至688GB;而更激进的精简方案(减少87.5%专家)也能保持72.0%的准确率。该方法适用于多种MoE架构,为强大AI系统的广泛部署铺平了道路。
SCIENCEBOARD是一项开创性研究,旨在评估多模态自主智能体在真实科学工作流中的表现。研究团队构建了一个包含169个高质量任务的基准测试,涵盖生物化学、天文学等六个科学领域,并开发了一个真实环境让智能体通过CLI或GUI接口与科学软件交互。实验评估表明,即使是最先进的模型在这些复杂科学任务上的成功率也仅为15%,远低于人类表现,揭示了当前技术的局限性并为未来科学智能体的发展提供了宝贵见解。
帝国理工学院的研究团队开发了AlphaMed,这是首个仅通过极简规则强化学习就能培养医疗推理能力的AI模型,无需依赖传统的思维链示范数据。通过分析数据信息丰富度和难度分布的影响,研究发现高信息量的医疗问答数据是推理能力的关键驱动因素。AlphaMed在六个医疗问答基准上取得了领先成绩,甚至超越了更大的封闭源模型,同时展现出自发的步骤推理能力,为医疗AI发展提供了更加开放、高效的新路径。
Alita是一种新型通用AI代理系统,采用极简设计理念,以"最小预定义,最大自我进化"为原则构建。由普林斯顿大学等多家机构研究团队开发的Alita,只配备一个核心能力和少量通用模块,能自主创建所需工具并重用为模型上下文协议(MCPs)。实验显示,Alita在GAIA基准测试上达到87.27%的通过率,超越包括OpenAI Deep Research在内的复杂系统,证明简约设计可带来卓越性能。