当前对AI的关注往往让数据驱动的洞察力和自然语言理解更加突出,但AI热潮背后有一个重要的潜台词:HPE等主要企业参与者也在努力增加新的网络功能,为众多企业计算环境中的AI处理铺平道路。
HPE高级副总裁、HPE Intelligent Edge总经理Phil Mottram本周二在美国拉斯维加斯的HPE Discover大会主题演讲中表示:“我们不要忘记了,是网络将数据输入模型,这在AI时代代表着新的机遇,网络的作用是巨大的。”
即将收购瞻博网络可能会让HPE的网络故事增色不少
HPE首席执行官Antonio Neri毫不掩饰HPE计划收购Juniper Networks对于加速整个网络部署AI的重要性。今年1月HPE对Juniper Networks的收购交易,仍然得通过监管审查,不过Neri在本周HPE Discover大会主题演讲中乐观地表示,收购仍将顺利完成。
他表示:“预计交易将在今年年底或明年年初完成,这将进一步完善我们的整体业务战略。”
然而,Neri的时间表遇到了障碍,今天英国监管机构宣布将调查这笔规模140亿美金的收购案是否会给英国带来竞争问题。调查结果预计将于8月公布。
HPE瞄准Juniper Networks,让人想起了9年前HPE以30亿美金收购Aruba Networks的情景。Aruba提供数据中心交换机和无线连接接入点——这是AI应用和网络服务密不可分的关键要素。
AI用于网络 网络用于AI
这个现实得到进一步突显,尤其是在HPE Discover大会上,HPE高管们阐述了Aruba将AI融入网络场景的计划,其核心是Aruba Networking Central,HPE基于云的网络管理平台。HPE Aruba首席产品和技术官David Hughes表示,Aruba管理着超过400万台设备和超过10亿个连接端点。
Hughes在大会有关边缘的主题演讲中表示:“所有这些都与Aruba Central结合在一起。”
Aruba采取的方法是提供解决方案以推动AI用于网络,利用AI的技术进展使网络管理员的工作更轻松,此外还致力于用于AI的网络,包括增强处理生成式AI工作负载的能力。
HPE已经行动起来了,通过将自定义AI模型集成到Aruba Central中来实现这一点。这让管理员可以通过集中式界面监控网络基础设施,从WiFi接入点自动收集数据,配置网络设备。
HPE的高管们还在大会主题演讲中描述了HPE是如何将安全性嵌入网络的战略,这一愿景被称为“安全第一、AI驱动的网络”。
在这种情况下,接入点可用于通过使用AI自动化操作来执行策略。“安全和网络目标已经达到了同等水平,”HPE首席技术和安全官Jon Green表示。
混合云服务于数据密集型AI工作负载
HPE本周围绕混合云发布了几项公告,其中的一个重点是与Nvidia合作推出的HPE Private Cloud AI。HPE对混合云的关注与其AI战略直接相关。正如首席技术官Fidelma Russo在她的主题演讲中指出的,“AI是一种数据密集型工作负载,因此本质上是一种混合式工作负载。”
网络将成为这一混合战略的关键要素,因为HPE坚信企业将需要一个能够全面解决整个AI生命周期问题的混合解决方案,这其中也将包括边缘,Neri在周二发表主题演讲后与媒体的简报中重申了这一点。
Neri说:“很多推理都将在边缘有端点,AI在设计上是需要混合云的。”
HPE不断发展的网络故事体现在了职业体育界,特别是NBA金州勇士队。该队在大通中心打球,这是一座2019年在旧金山开业的体育和音乐会场馆。
场馆内部署了数千台边缘设备用于传送和收集数据,这些设备包括Aruba Wi-Fi 6E接入点、销售点收银机、安全摄像头和各种楼宇管理硬件,更别说每天还有超过18000名球迷要到场观看比赛。
“即使没有一名球迷进入大通中心,也已经有5000到7000台设备连接到我们的网络,”金州勇士队和大通中心技术副总裁Daniel Brusilovsky在媒体简报会上解释说。“你确实需要网络以非常高的性能运行。”
这只是一个例子,说明了在需要随时连接数千台设备的时代,企业对网络技术的依赖程度有多高,而AI增加了新的使用层,带来更高的复杂性,本周在拉斯维加斯举行的HPE Discover 大会传递了一个信息,那就是消费者和企业都对于性能和令人满意的结果有着很高的期望。
Brusilovsky向媒体表示:“我从粉丝那里听到的最糟糕的话就是‘我无法在场馆内连接’,现在我们大楼里的一切都是运行在网络上的。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。