中国上海,2022年7月15日 – VIAVI Solutions(VIAVI)(纳斯达克股票代码:VIAV)近日分享,公司参与了由O-RAN联盟组织、业界领先企业主办的O-RAN PlugFest大会。此次的PlugFest大会于2022年5月和6月,在多个国家进行了一系列现场演示。
VIAVI为全球各地的PlugFest测试和演示提供了基准和验证,包括:
VIAVI首席技术官办公室、O-RAN联盟测试和集成专题工作组联合主席Ian Wong博士评论道:“从PlugFest整体来看,O-RAN生态系统的日益成熟显而易见。开放式无线电单元(O-RU)将完成前传一致性认证,且从认证进一步拓展到性能测试。O-RU之外的多供应商环境中的互操作性也更受关注,包括O-RU和开放式分布单元(O-DU)、O-DU和开放式中央单元(O-CU)在内的重要组合,以及完整的端到端网络均得以展示。各供应商还展示了RAN智能控制器(RIC)及其将人工智能/机器学习技术引入网络优化和服务管理的潜力。而随着开放式网络的安全性愈发重要,本此PlugFest大会还包括了O-RAN和3GPP安全测试案例的运行。”
VIAVI的O-RAN标准测试套件可为一致性、性能、互操作性和端到端测试提供支持:
VIAVI无线业务市场部副总裁Stephen Hire表示:“随着对O-RAN跨行业合作的关注度大幅提升,我们在这一年中已经参与了多场PlugFest。除了参与者众多之外,在端到端互操作性、人工智能和机器学习所驱动的保障和优化的自动化以及安全性方面也呈现复杂性。VIAVI久经验证的平台简单易用,并且能够快速得出结果,通过在这些平台上提供全面的相关测试案例,VIAVI能够助力合作伙伴克服上述复杂性。”
VIAVI可为O-RAN网络的实验室验证、外场部署和服务保障提供市面上最全面的测试套件。凭借为全球运营商和制造商验证网络产品的丰富经验,VIAVI使包括O-RU、O-DU、O-CU、RIC和Core在内的任何节点以及完整的端到端测试都能在本地、云端或作为即服务来执行。
好文章,需要你的鼓励
新加坡国立大学研究人员开发出名为AiSee的可穿戴辅助设备,利用Meta的Llama模型帮助视障人士"看见"周围世界。该设备采用耳机形态,配备摄像头作为AI伴侣处理视觉信息。通过集成大语言模型,设备从简单物体识别升级为对话助手,用户可进行追问。设备运行代理AI框架,使用量化技术将Llama模型压缩至10-30亿参数在安卓设备上高效运行,支持离线处理敏感文档,保护用户隐私。
阿里达摩院联合浙江大学推出VideoRefer套件,这是首个能够精确理解视频中特定物体的AI系统。该系统不仅能识别整体场景,更能针对用户指定的任何物体进行详细分析和跨时间追踪。研究团队构建了包含70万样本的高质量数据集VideoRefer-700K,并设计了全面的评估体系VideoRefer-Bench。实验显示该技术在专业视频理解任务中显著超越现有方法,在安防监控、自动驾驶、视频编辑等领域具有广阔应用前景。
OpenAI推出新AI模型GPT-5-Codex,能够在无用户协助下完成数小时的编程任务。该模型是GPT-5的改进版本,使用额外编码数据训练。测试显示,GPT-5-Codex可独立工作超过7小时,能自动发现并修复编码错误。在重构基准测试中得分51.3%,比GPT高出17%以上。模型可根据任务难度调整处理时间,简单请求处理速度显著提升。目前已在ChatGPT付费计划中提供。
Sa2VA是由UC默塞德等高校联合开发的突破性AI系统,首次实现图像视频的统一理解与精确分割。通过巧妙融合SAM-2视频分割技术和LLaVA多模态对话能力,Sa2VA能够同时进行自然对话和像素级物体标注。研究团队还构建了包含7万多个复杂视频表达式的Ref-SAV数据集,显著提升了AI在长文本描述和复杂场景下的表现。实验显示,Sa2VA在多个基准测试中达到业界领先水平,为视频编辑、医疗诊断、智能监控等领域带来新的应用可能性。