回顾今年安博会,视频云似乎已经成为了一种潮流。视频云的建设模式可以实现资源使用效率的显著提升、数据有效融通、解决海量视频图像信息大数据和AI处理的算力问题、构筑开放的的云生态模式等等好处,这些优势究竟能否实现,又是如何实现的呢?今天小编带大家回顾一下安博会上几位大咖是怎么讲述各自心目中的“视频云”。
华为:云领安防 让平安可以预见
华为延续2016年安博会首次提出的视频云解决方案的理念,这次安博会又以“云领安防,让平安可以预见”作为主题,展示的视频云解决方案实现了软件和硬件解耦、业务与数据解耦,并与合作伙伴联合开发解决方案,实现应用“百花齐放”。小编了解到,华为视频云解决方案这一年以来,已经在北京、江苏等地的多个项目上获得成功。这个结果也不难理解,华为一直在云计算、大数据、网络、芯片等领域重点投入,各行各业都极为关注其在研发上的投入力度。在这次大会上华为新展示了智能摄像机、人工智能的产品和技术。不得不说,华为也越来越重视安防领域的市场,其产品和方案逐渐补齐完整,而且“让平安可以预见”的理念也迎合了行业用户对预测预警预防的强烈需求。但是,华为的方案还是偏重在平台,前端能力上还有很长的路要走,应用上还依赖于与应用厂家合作。小编认为,华为能否将生态圈建的枝繁叶茂,将是未来华为在安防行业能否“遍地开花”的关键之处。
海康:“边,云,用” 的AI Cloud 逻辑架构,提出前端智能与中心智能协同作战
海康以“深度智能,全数前行”为主题,提出AI Cloud,指出AI将“打破视频监控的天花板”,强调了“云边融合”,展台也按照“边、云、用”板块进行分区。小编注意到,海康的核心展点仍然在前端,海康认为摄像机+AI形成了边缘智能节点。面向后端业务的“猎鹰”、“超脑”、“脸谱”等产品虽然配置了超前的芯片和硬件板卡,但是并没有形成真正的基础设施云化和数据融合,简单来讲还是偏向一体机的方式。小编认为,海康在进一步强化前端“智能化”的基础上,也越来越意识到中心决策层“大脑”的重要性,但是还有很多“课”要补。一方面,在海康的整个架构中,提出了前后端要协同作战,不过如前端的结构化摄像机如何与后端的云中心协同并没有阐述清楚。另一方面,视频云的基石是数据,海康只有解决了数据融合与智能分析协同的问题,才能体现出云的真正优势。
大华:“视频云”助力云生态布局与拓展,致力打造智慧物联网视频云生态
大华以“云生态,智未来”为理念,提出云计算和边缘计算整合,定义“全计算”。 基于公有云/私有云/混合云三大场景的视频云方案,大华提出了智能云存储、多维大数据、云魔方平台(开放视频服务框架)、云运维中心等方案,宣传云计算、大数据、人工智能和IoT等以前只有IT厂商才更多关注的内容,小编还注意到,在大华展台上数据中心设备被放置在了展台的最中心位置,灯光闪烁,煞是漂亮。基于上述内容不难看出,大华正在积极拥抱视频云,理念上有许多值得行业玩家学习的地方,但是否已经产品化,还需我们拭目以待。
佳都科技:用AI诠释安全新世界
佳都在此次展会上基于“感知互联、数据驱动、智能应用”的理念驱动下,重点展示了智能化技术和全系列人工智能产品和行业应用方案。其中包括人脸识别、车辆识别、视频结构化等人工智能技术,大数据分析处理、移动支付等核心术。谈到关于视频云的部分,佳都在去年的北京安博会上曾提出过“视频云+”,今年依旧是作为人工智能产品中的一员展示,小编没能够清晰的认知到这一加号的含义。
东方网力:“Building AI City 构建公共安全视界”
这一届安博会上,不少厂家都按视频数据的流向进行展示布局,东方网力就以视频的采集、分析、应用三部分进行展示。在视频资源汇聚展区,网力展示了其面向公共安全行业的“视云联网平台”,以统一的架构提供视频、图片、WIFI、GPS等设备和数据跨网、高效接入、稳定存储、有效管理和共享服务。可以看到,网力的“云”把软件和硬件解耦,可以对各类数据进行有效的管理和服务。但小编也注意到,在业务和数据层面网力依然使用自身的算法,离真正的视频云还有一段路要走。
本次安博会上,各路大咖纷纷亮出各自“视频云”的高招。总览此次安博会,我们有理由认为“视频云”的建设模式已经成为了业界的主流,最主要原因是其给用了选择的权利,它带来的资源使用效率的显著提升、数据的有效融通、海量视频图像信息大数据和AI处理的算力提升、开放的的云生态模式等等好处让用户实在是不得不心动。同时我们也看到,如何处理好数据分析与智能分析协同、生态的构筑、乃至产品的落地仍是各大厂家需要解决的问题。大浪淘沙,安防新时代谁能拔得头筹,我们还是拭目以待。
好文章,需要你的鼓励
AI正在彻底改写创业规则:YC最新数据显示,10人团队12个月达成千万美元营收已成常态,"氛围编程"让技术不再是瓶颈,而创始人能否深度理解客户需求成为成败关键。当6人团队就能创造八位数收入时,我们看到的不仅是速度革命,更是对公司本质的重新定义。
这项由阿伯丁大学和格勒诺布尔阿尔卑斯大学研究者联合完成的研究揭示了大语言模型处理日期时的关键问题:现代分词器常将日期分割成无意义的碎片,如"20250312"被切分为"202"、"503"、"12",这严重影响时间推理能力。研究提出了日期碎片化率指标,创建了DATEAUGBENCH测试集,并通过内部机制分析发现,大型模型能在早期层快速"修复"碎片化日期,但其推理路径与人类理解方式显著不同,这解释了模型在处理非标准日期时的准确率下降。
MUG-Eval是KAIST和Trillion Labs联合开发的创新多语言评估框架,通过让语言模型在目标语言中进行自我对话来评估其生成能力。该方法独特之处在于不依赖语言特定工具或人工标注数据,而是通过任务完成率间接衡量语言能力。研究团队测试了8种顶级语言模型在30种语言上的表现,发现其结果与传统评估方法高度一致(相关系数>0.75)。MUG-Eval揭示了模型在低资源语言上表现显著落后,并发现英语并非评估低资源语言的最佳替代。该框架理论上支持2,102种语言,为真正包容的AI评估提供了新途径。
浙江大学研究团队开发的"自制动力训练"(Self-Braking Tuning,SBT)方法解决了大型语言模型在推理过程中的过度思考问题。该方法不依赖外部干预,而是培养模型自主识别冗余推理并适时终止的能力。研究者通过分析推理效率比率和过度思考标记比率,构建了两种数据策略:SBT-E(精确版)和SBT-D(动态版)。实验结果表明,经过训练的模型在多个数学基准测试上保持原有准确率的同时,将标记消耗减少了30%到60%,显著提高了推理效率。这项创新使AI系统能更像人类一样有效思考,为资源受限环境下的AI部署提供了新解决方案。