2018安博会与10月23日于北京-中国国际展览中心(新馆)隆重开幕。华为以“智能视频云,识万象,见平安”为主题,在W4警务应用馆B29号展位盛装亮相。此次华为展台围绕华为全栈全场景的AI解决方案,以“智能”、“云化”、“实战”为关键词进行了展示。
原公安部部长助理王俭、科信局局长厉剑等领导莅临展台参观指导,并表示,华为在安防行业有领先的思想理念,先进的产品和解决方案,相信华为有能力助推安防行业升级,期待华为做出更好的成绩。
数据驱动的警务实战,华为AI端到端服务行业
进入华为展台,首先映入眼帘的实战业务展示区。无论是业务开发者、办案破案的民警、还是关心百姓民生的观众,都能在这里找到AI应用的场景。
华为全栈全场景的AI解决方案将对算法训练产生极大的改变。将于2019年2月份发布的昇腾910芯片,具有单芯片最大的算力密度。搭配华为的1024颗芯片集群技术,各个厂家算法训练时间将从几个月降低为几个小时、几分钟。未来,公安将可以实现对特性人群的算法自定义,算法将成为具有实时性的普惠资源。
华为AI还将实现业务编程的无码化,也就是说未来开发一项业务,无论是公安民警、还是业务开发者,都将不再需要敲写复杂的代码,而是依靠拖拉拽的方式,在极短地时间内就能开发一项业务。目前,华为AI已经帮助客户实现1人天完成30人天的业务开发工作,未来这一时间将会进一步缩短。
“芯五星”——全系列智能摄像机
搭载了昇腾芯的华为智能摄像机是此次展会华为的一大亮点,其软件定义架构和非约束算法再一次让行业升级的脚步向前迈进了一大步。
高密人脸抓拍、智能1拖N、超星光全彩、软件定义架构、场景自适应等功能和特性让观众大开眼界,受到参观领导和专家的赞誉。值得一提的是华为全彩星光摄像机,相比于传统的星光摄像机,华为的全彩星光摄像机能够实现星光级条件下全彩成像,标志着星光级摄像机从此迈入全彩时代。
宽网络,联不同,可靠接入
华为有着三十年丰富的网络技术积累,在安防领域将充分发挥独特优势。此次安博会上华为展示的网络能力贴近用户实战需求,能够帮助客户实现摄像机在线率提升20%,前端防伪冒、防劫持、防漏洞,端到端做到视频质量实时诊断并精准定位。尤为亮眼的是:其一,华为有能力为有条件的用户自建网络,对比传统网络租用模式,建成第一年就可以降低40%成本;其二,华为的SmartX一体化智能站点成为了该展区的热门,许多客户对其太阳能供电、微波回传等功能十分感兴趣。
华为智能视频云可大可小,一台起步,敏捷上阵
华为的智能视频云解决方案能够适用于全场景,无论是大规模的市级工程,还是小范围的摄像机部署,华为智能视频云都能够帮助客户实现业务的快速上线。“云即是网,网即是云”,华为的智能视频云可大可小,大到几千台服务器,小到一台服务器,各种场景智能视频云都能够满足。基于华为昇腾芯的Atlas300加速卡、TaiShan ARM架构服务器等领先产品将为华为智能视频云提供高效、可靠的支撑。
iCAN智能指数——业界首个安防智能指数评价框架体系
自动驾驶领域以L0~L4的分级标准定义自动驾驶的发展水平,在安防行业华为将安防人工智能水平从感知、协同、决策三大维度的水平分为L0~L4五层。华为认为,安防领域大多数产品和解决方案还处于L1初级智能水平:能够实现对目标的检测,但还需要人工协作和人工决策。华为已经做到目标的检测与识别,能够实现端云协同、辅助决策的L2水平,也就是能够将各类网络和数据进行一定程度的打通。
智能水平的提升依托于算力的提升。华为中国地区部副总裁、安平系统部总裁岳坤表示,进入智能安防时代,像素高低已经不能决定摄像机的好坏,更重要的是摄像机的“脑容量”,也就是算力。目前行业内大部分摄像机的算力还小于1T,要想进入L2乃至L3阶段,提升算力势在必行。
未来,华为希望通过AI技术的发展创新,推动全行业在2~3年内实现全场景识别的L3水平,用5年左右的时间进入到高度自主决策的L4水平。诚然,要实现更高的智能安防,与发展水平相匹配的算法、软件、乃至网络等等技术也要实现相应的大发展。未来的人工智能将有哪些新的应用场景,更要全行业共同讨论和发现。华为相信,随着AI技术的发展,未来全安防行业迈入L4阶段的一天并不遥远。
展望未来,一切可期。
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。