8月27日,华为在广州举办2018安防新品交流会,并发布“视频云+软件定义摄像机”新一代产品。本次大会以“轻云直上,视界大开”为主题,意寓以云和智能为核心,通过AI技术有效提升前端摄像机智能应用水平,通过全云化技术架构提供视频云平台,实现充分的资源共享、高效的智能解析和开放的生态体系,让视频更好地服务于业务实战。
300多位行业专家、合作伙伴参加了本次大会,从安防行业的发展趋势、技术理念、新产品和解决方案、成功案例等方面进行了充分的分享和探讨。大家积极互动,畅所欲言,干货满满,收获良多。
华为云核心网产品线总裁马海旭为大会致欢迎辞。马海旭表示,产业政策、市场需求和技术发展推动着安防行业快步走向云化和智能,华为坚持在云计算、大数据、人工智能等领域长期投入,发布了视频云+软件定义摄像机的安防解决方案体系架构,并推出了一系列创新产品和解决方案。通过开放的产业合作策略和技术,华为愿与伙伴们一起齐心协力,推动安防产业全面走向人工智能时代。
华为广东企业业务解决方案总经理郭国清在发言中表示,视频监控是华为企业业务的战略投入方向和核心增长点,华为与广东省政府以及东莞、佛山、惠州、韶关、江门等9个地市在数字政府、平安城市、智能制造等领域展开深度合作,并协助广东省公安厅率先建立了覆盖全省的视频云立体化防控体系。同样,华为视频监控解决方案也已大规模应用于深圳平安城市、广佛地铁、深圳机场及其他众多园区安防监控项目。
中国安防行业产品协会副理事长靳秀凤女士分享了视频监控产业发展趋势。靳秀凤认为,随着国家政策力度和改革措施的加强,“雪亮工程"部署如火如荼,智慧城市建设逐渐掀起高潮,安防行业将迎来一个全新的快速增长期,产业结构不断优化。安防科技创新步伐加快,以云化和智能为核心,软件与硬件解耦、算法与应用解耦成为主流建设模式,未来的视频监控系统将是一个云化架构、开放解耦、全网智能、前后端联动的数字化、智能化体系。
接下来,华为云核心网产品线副总裁石冀琳女士在大会现场隆重发布了华为“视频云+软件定义摄像机”新一代产品,包括星系列软件定义智能摄像机、CloudIVSLite视频轻量云等重磅产品。
华为本次发布的“星像”人员结构化摄像机、“星驰”车辆微卡口摄像机、“星驰”电警卡口摄像机,“星辰”态势感知摄像机基于华为在业界首次提出的软件定义摄像机创新理念,具备按需定义、分层智能、持续演进的特征,能够广泛适用于专业人像、车辆、电子警察等各种应用场景。
华为也致力于通过构建全云化架构的CloudIVS视频云平台,可以分层部署在中心节点、边缘节点,与软件定义智能摄像机配合,形成端、边、云的立体式视频存储和智能分析能力,实现资源协同、算法协同、数据协同,为平安城市保驾护航。本次发布的华为CloudIVSLite视频轻量云解决方案,就是专为边缘节点打造的轻量视频云,具备轻快灵巧的特点,一键部署、就近计算、端云协同、秒级检索,让视频处理更简单、更高效。
最后,华为视频监控解决方案总工李明群带来了“智汇生态,聚力行业化解决方案”的主题演讲,与现场嘉宾一起探讨了华为明星产品与解决方案如何在园区、交通、地铁等行业大放异彩,并与软通动力联合发布了开放共享、高效智能、安全可靠的园区安防联合解决方案。
华为希望通过开放的产业合作策略和技术,与伙伴形成合力,更好地服务客户。2018华为安防新品交流会将在北京、上海、郑州等城市陆续举办,形成一个安防行业的交流平台,将开放、先进、智能的视频监控解决方案及最新的技术理念,带给全国的客户和合作伙伴,共同探寻海量视频数据新应用价值。
下一站,8月31日,我们郑州见。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。