至顶网网络频道 08月03日 北京报道:由天地互连、下一代互联网国家工程中心主办的“2017全球SDNFV技术大会” (2017.chinasdn.org)于 2017年8月2-3日,在北京国宾酒店火热开幕。在3日下午的大会中,NTT DOCOMO网络创新实验室研究主管Kazuaki OBANA分享了主题为“5G时代核心网的需求和期待”的精彩演讲。
NTT DOCOMO网络创新实验室研究主管Kazuaki OBANA
以下为现场演讲实录:
Kazuaki OBANA:大家好。我想为大家介绍一下5G时代的核心网络的需求还有期待。我想首先为介绍一个大体的状况,毫无疑问,现在我们有很多的需求,比方说我们需要我们更加多样化的服务,再一个,我们需要降低延迟性等等。除此之外,可能最重要的一个需求就是我们需要供应出高质量的产品和服务。而且这种服务需要具有高的效率。而且有我们所需求的特性。这就引出了SDNFV。
大家都知道NFV是非常重要的一个技术,当然了,标准化也是其中,这种标准化对于我们的技术发展来说是很关键的,之前也有很多的嘉宾们都已经提到过了,开源是一个很重要的标准。这种标准化对于整个NFV的发展很关键,除此之外我们就能够基于这种标准来组织一系列的活动。
去年在三月份的时候我们建立了一个商业执行的一种商业的网络,这是世界上最早的商业化网络。是由爱立信所提供的。当然了,爱立信也涉及其中,以及思科公司。这就是我们整体的一个架构,大家可以看一下。介绍了我们整体网络的情况,一共有三层,这对于切片而言,切片也涉及其中这个概念。
下面是我们实现网络的关键驱动因素。第一,云的技术,这是一种虚拟化的技术。毫无疑问这是非常重要的技术。下面就是3GKP技术。我们先看网络切片的概念,这是一种三层的构架,我们一直致力于这种构架的使用跟开发。这个是我们去年的时候所做的PoC。这有些不同,这跟3GKP有所不同,因为3GKP定义了什么是切片,以及如何对此加以管理。PoC的概念则是 更加的基础的一个概念,我们不想要把现状加以过多的改变,相反我们所做的工作是我们加强了整个系统的活力性,它的动态。
下面给大家介绍一下目前的状况,IFA发展状况可以看到我们有不同的切片。再比方说IFA028适用于不同的多样的管理域的。我们在这之后能做的是什么呢,以及我们应该怎么做?尤其在NFA这个切片领域,这个才是我们需要考虑的问题。下面想介绍一下网络切片这个概念的现状是什么。
在这个问题上事实上之前公布了一系列的白皮书,有关于NGM,有关美国的5G等等,随后将会有一系列SDA来开始讨论所谓网络切片的问题,这涉及到3GKP,TM4,ITF等等,但是关于切片的概念以及系统的架构,以及实现这种概念的系统架构,我们需要再做进一步的讨论,下面我们所需要做的就是我们要意识到NFV和网络切片是未来实现网络虚拟化的重要的因素。
所以为此我们需要做的是什么呢?首先在NFV方面我们需要进行说明的间隔的分析,这个是在有关于未来的需求,核心网络的需求,还有目前的NFV的需求。再一个,就是我们需要意识到在网络的切片这个问题上,在所有的SDA方面都是有所需求的。下面我想为大播放一个家视频结束我的发言。
(播放视频)
好文章,需要你的鼓励
这项来自苹果公司的研究揭示了视频大语言模型评测的两大关键问题:许多测试问题不看视频就能回答正确,且打乱视频帧顺序后模型表现几乎不变。研究提出VBenchComp框架,将视频问题分为四类:语言模型可回答型、语义型、时序型和其他类型,发现在主流评测中高达70%的问题实际上未测试真正的视频理解能力。通过重新评估现有模型,研究团队证明单一总分可能掩盖关键能力差距,并提出了更高效的评测方法,为未来视频AI评测提供了新方向。
这篇来自KAIST AI研究团队的论文提出了"差分信息分布"(DID)这一创新概念,为理解直接偏好优化(DPO)提供全新视角。研究证明,当偏好数据编码了从参考策略到目标策略所需的差分信息时,DPO中的对数比率奖励形式是唯一最优的。通过分析DID熵,研究解释了对数似然位移现象,并发现高熵DID有利于通用指令跟随,而低熵DID适合知识密集型问答。这一框架统一了对DPO目标、偏好数据结构和策略行为的理解,为语言模型对齐提供理论支持。
VidText是一个全新的视频文本理解基准,解决了现有评估体系的关键缺口。它涵盖多种现实场景和多语言内容,提出三层评估框架(视频级、片段级、实例级),并配对感知与推理任务。对18个先进多模态模型的测试显示,即使最佳表现的Gemini 1.5 Pro也仅达46.8%平均分,远低于人类水平。研究揭示输入分辨率、OCR能力等内在因素和辅助信息、思维链推理等外部因素对性能有显著影响,为未来视频文本理解研究提供了方向。
ZeroGUI是一项突破性研究,实现了零人工成本下的GUI代理自动化在线学习。由上海人工智能实验室和清华大学等机构联合开发,这一框架利用视觉-语言模型自动生成训练任务并提供奖励反馈,使AI助手能够自主学习操作各种图形界面。通过两阶段强化学习策略,ZeroGUI显著提升了代理性能,在OSWorld环境中使UI-TARS和Aguvis模型分别获得14%和63%的相对改进。该研究彻底消除了传统方法对昂贵人工标注的依赖,为GUI代理技术的大规模应用铺平了道路。