康普RUCKUS大中华区总监 程俊邦
成功的企业从不会停止适应不断变化的商业环境。就像经验丰富的球队队长能够洞察赛场,从而发现机会、权衡风险一样,主动出击的企业才能蓬勃发展。无论是在体育界还是在商界,在等待最佳行进路线逐渐明朗的过程中,原地踏步、消极被动都将导致自己被超越。随着一系列重要的企业技术的发展,2024 年很可能会成为企业在市场竞争中脱颖而出的关键一年。
今年将有三件大事发生,其各有各的风险、益处和解决方案。虽然这并不是一份详尽的清单,但其中包括了将在 2024 年以某种方式影响大多数企业的技术,而且一些企业可能已经在采用了。
Wi-Fi 7 添加了多链路操作(MLO)功能,使接入点(AP)能够同时驱动多个频段和信道,因此同一接入点可同时提供 2.4 GHz、5 GHz和 6 GHz 的数据流,从而使容量激增,大大降低延迟。此外,MLO 还能在终端和 Wi-Fi® AP 之间提供更可靠的连接。因此,2024 年,企业将更深入地审视自身用例,并认识到曾经被认为无法通过 Wi-Fi 实现的用例终于成为可能。
此外,6.0 GHz 频段也被未授权的蜂窝网络应用所共享。这为融合网络中一些令人兴奋的应用打开了大门:
对于希望在人员和设备连接方式上实现高敏捷性的企业来说,2024 年将在如何并行驱动多个网络和协议方面取得重要进展,通过专用网络优化连接组合,满足企业的特定需求。
以上就是 2024 年对于企业的利好消息。这些技术将为未来十年或二十年的发展奠定基础,而且它们都将在同一时间成为主流技术。当然,这种增长也伴随着“成长的烦恼”,这些烦恼也可归结为横跨这些技术的三大挑战:
这些相互关联的挑战中,每一项都像是需要攀登的陡峭山坡,但其并非无法逾越。即使企业开始感受到这些挑战,他们也有创新的解决方案可供选择。那些善于利用新技术的企业将在未来几年中处于有利地位,并最大限度地减少潜在不利因素。对于渴望充满信心地拥抱这些进步的企业,以下是其可用的三大关键资源:
可用于训练AI系统的算力(数据由 OpenAI提供)和随着时间推移的相应成本(数据由 ARK Invest提供)示例
AI驱动的网络管理已经变得足够强大,能够以更少的 IT 参与和更精简的预算来保持融合型企业网络的平稳运行,而且根据 ARK Invest 的预测,训练专用 GPT-3 AI模型的前期成本
将骤降至几年前所需投资的 0.0065%。在企业构建更加融合、灵活和强大的网络时,AI也能帮助确保 SLA 合规性,从而消除采用AI的大部分风险。
这些优势以前只能在由不同供应商的安全硬件和软件组成的分散、不可靠的生态系统中获得。经过 Matter 和 Thread 认证的设备将最终消除阻碍物联网更广泛应用的挑战和风险。
最后,对于那些受限于 IT 资源和时间,而非设计、构建、管理和支持融合网络所需的资金的企业来说,也有供应商可提供一整套“托管服务”供其选择,以满足其网络需求。
这三种解决方案的一个共同点是,它们都致力于为企业减轻与最先进的融合网络相关的复杂性。AI提供了最受欢迎的优势,即网络保障,超越了普通的监控,使精干的 IT 团队能够处理价值更高的项目。同样,为支持互操作性、安全性和简便性而构建的 Matter 和 Thread 协议所提供的定义明确的连接框架,在加速物联网应用在许多行业垂直领域的普及方面发挥着关键作用。最后,NaaS 模式可将整体体验简化为企业与网络之间简单的交钥匙关系。
2024 年的关键发展将产生远超未来一年的深远影响。如此多令人兴奋的技术进入主流,很可能为未来几十年的发展奠定基础。对于有意向接受这些技术的企业来说,如果能将AI、物联网和 NaaS 支持巧妙地结合,2024 年将成为一个非常美好的开始。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。