在MWC2019世界移动大会期间,“中国联通MEC边缘云商用加速计划发布会”在场内同步举行。数十家业内与联通达成战略合作,共同探讨MEC边缘云技术标准、平台架构、组网方案、落地实践等。
华兴宏视技术总监武宇文博士(左)
华兴宏视,是参与联通此次活动的重要合作伙伴之一,至顶网记者在发布会上对华兴宏视技术总监武宇文博士进行了现场采访。
面向5G的杀手级应用,对视频的利用是业内普遍看好的一个主攻方向,许多5G时代预想的特色应用,诸如车联网、物联网、工业互联网等,都不可避免的需要各种高效的视频处理能力的支持,例如视频处理,编转码、AI分析等。而华兴宏视,正是一家以研发为核心的,集生产/销售为一体的视频压缩技术产品、多媒体处理系统级解决方案提供商。
武宇文博士告诉至顶网,互联网时代就已经视频为王,在5G大视频时代尤为如此,不过与4G传统的互联网视频应用相比,而5G大视频下视频应用有两个显著的变化:
一是视频分辨率越来越大,超高清4K、8K视频随着5G的落地会很快普及;二是互联网视频成海量增长。这两个变化带来的结果是,视频资源的数量和规模都在呈几何级数放大。
因为这些特点,在5G时代对视频素材做任何数据分析和智能处理,都会导致海量的计算资源消耗。如何高效的提供各种视频能力成为这些5G应用能否成功的关键。
对此,华兴宏视也给出了一些应对策略。首先,武宇文博士表示,一定要重视边缘计算的作用,传统集中化的视频处理方式必然成为一种瓶颈,难以满足应用需求,5G视频边缘计算是解决5G应用这个最主要痛点的关键。
其次,一定要在尽可能利用客户既有IT资产的情况,尽可能用软硬结合的方式,优化视频处理效率。这方面,华兴宏视有很多经验,公司使用了自有视频算法,架构设计也非常灵活,提供了各种高密度异构视频解决方案,即固定尺寸设备提供尽可能多的各类视频处理能力。
华兴宏视的视频解决方案涵盖了视频处理、视频压缩、视频智能分析等5G视频应用的多个方面。
目前华兴宏视已经与中国联通深度合作,在计算平台上,华兴宏视则与Intel紧密合作,提供了基于CPU、GPU、VCA、FPGA等多种硬件平台异构高密度统一视频处理、编转码及AI分析的最主要开发合作伙伴。
武宇文博士表示,人工智能的计算发生在训练和推理两端,比较而言,训练端相对模式化,计算需求相对固定。而随着5G时代的到来,越来越多的边缘设备带有计算功能,要处理业务的智能化需求,未来需求将呈现爆发式增长态势。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。