在MWC2019世界移动大会期间,“中国联通MEC边缘云商用加速计划发布会”在场内同步举行。数十家业内与联通达成战略合作,共同探讨MEC边缘云技术标准、平台架构、组网方案、落地实践等。
华兴宏视技术总监武宇文博士(左)
华兴宏视,是参与联通此次活动的重要合作伙伴之一,至顶网记者在发布会上对华兴宏视技术总监武宇文博士进行了现场采访。
面向5G的杀手级应用,对视频的利用是业内普遍看好的一个主攻方向,许多5G时代预想的特色应用,诸如车联网、物联网、工业互联网等,都不可避免的需要各种高效的视频处理能力的支持,例如视频处理,编转码、AI分析等。而华兴宏视,正是一家以研发为核心的,集生产/销售为一体的视频压缩技术产品、多媒体处理系统级解决方案提供商。
武宇文博士告诉至顶网,互联网时代就已经视频为王,在5G大视频时代尤为如此,不过与4G传统的互联网视频应用相比,而5G大视频下视频应用有两个显著的变化:
一是视频分辨率越来越大,超高清4K、8K视频随着5G的落地会很快普及;二是互联网视频成海量增长。这两个变化带来的结果是,视频资源的数量和规模都在呈几何级数放大。
因为这些特点,在5G时代对视频素材做任何数据分析和智能处理,都会导致海量的计算资源消耗。如何高效的提供各种视频能力成为这些5G应用能否成功的关键。
对此,华兴宏视也给出了一些应对策略。首先,武宇文博士表示,一定要重视边缘计算的作用,传统集中化的视频处理方式必然成为一种瓶颈,难以满足应用需求,5G视频边缘计算是解决5G应用这个最主要痛点的关键。
其次,一定要在尽可能利用客户既有IT资产的情况,尽可能用软硬结合的方式,优化视频处理效率。这方面,华兴宏视有很多经验,公司使用了自有视频算法,架构设计也非常灵活,提供了各种高密度异构视频解决方案,即固定尺寸设备提供尽可能多的各类视频处理能力。
华兴宏视的视频解决方案涵盖了视频处理、视频压缩、视频智能分析等5G视频应用的多个方面。
目前华兴宏视已经与中国联通深度合作,在计算平台上,华兴宏视则与Intel紧密合作,提供了基于CPU、GPU、VCA、FPGA等多种硬件平台异构高密度统一视频处理、编转码及AI分析的最主要开发合作伙伴。
武宇文博士表示,人工智能的计算发生在训练和推理两端,比较而言,训练端相对模式化,计算需求相对固定。而随着5G时代的到来,越来越多的边缘设备带有计算功能,要处理业务的智能化需求,未来需求将呈现爆发式增长态势。
好文章,需要你的鼓励
这项研究由新加坡国立大学团队开发的DualParal技术,通过创新的双重并行架构解决了AI视频生成的长度限制问题。该方法同时在时间帧和模型层两个维度实现并行处理,配合分块降噪机制、特征缓存和协调噪声初始化策略,使生成分钟级长视频成为可能。实验表明,在生成1,025帧视频时,DualParal比现有技术减少了高达6.54倍的延迟和1.48倍的内存成本,同时保持了高质量的视频输出,为内容创作者提供了生成更长、更复杂视频叙事的新工具。
SoloSpeech是约翰霍普金斯大学研究团队开发的创新语音处理技术,针对"鸡尾酒会效应"问题提出了全新解决方案。该系统通过级联生成式管道整合压缩、提取、重建和校正过程,实现了高质量目标语音提取。与传统判别式模型相比,SoloSpeech采用无需说话者嵌入的设计,直接利用提示音频的潜在空间信息与混合音频对齐,有效避免特征不匹配问题。在Libri2Mix及多个真实世界数据集上的评测显示,SoloSpeech在清晰度、质量和泛化能力上均达到了领先水平,为语音分离技术开辟了新方向。
这项由北京大学深圳研究生院、伟湾大学、腾讯ARC实验室和兔小贝智能联合研究的Sci-Fi框架,通过创新的对称约束机制,解决了视频帧间插值中的关键问题。研究团队设计了轻量级EF-Net模块,增强结束帧约束力,使其与起始帧形成平衡影响,从而生成更自然流畅的中间过渡帧。实验证明,该方法在各种场景下都优于现有技术,特别适用于电影制作、动画创作和视频编辑领域,显著降低了人力成本。
这项来自西北大学和谷歌的研究突破了传统马尔可夫强化学习的局限,通过贝叶斯自适应RL框架解释了大语言模型中涌现的反思性推理行为。研究团队提出的BARL算法通过维护多个解题策略的后验分布,指导模型何时何地进行反思性探索,在数学推理任务上展现出显著优势,比基线方法减少高达50%的标记使用量,同时提高了准确率。这一研究不仅解释了"为什么反思有用",还提供了实用的指导原则,为AI系统的自适应推理能力开辟了新方向。