Panasonic Industry Europe 宣布将把 DigiCert Device Trust Manager 集成到其 PAN-MaX 智能制造服务中,以实现对其互联互通型智能家居设备按照 Matter 认证标准进行 “无缝” 认证。
Panasonic Industry Europe 和 DigiCert 坚信,此次合作恰逢关键时刻,因为在市场快速增长的背景下,智能家居设备制造商正面临着日益严峻的安全性、合规性和互联互通要求。引用 Fortune Business Insights 发表的研究,这两家公司指出,全球智能家居市场预计将从 2025 年的 147.52 亿美元增长到 2032 年的 633.20 亿美元,年复合增长率达 23.1%。
Matter 是由 Connectivity Standards Alliance ( CSA ) 推出的互联互通标准,并由包括 DigiCert 与 Panasonic 在内的智能家居技术领军企业共同开发。Matter 旨在创建一种通用语言,使物联网 ( IoT ) 设备能够跨 Apple Home、Google Home 和 Amazon Alexa 等生态系统进行通信。
该组织表示,对于制造商来说,Matter 合规性不仅仅是一项功能,而是一项必需品。每个 Matter 设备均配备有设备认证证书 ( DAC ) ,这是一种由经 CSA 认可的产品认证机构 ( PAA ) 颁发的数字合规证明。DigiCert 是一家拥有众多 Matter 认证客户的 PAA。Matter 补充道,没有 DAC,设备在某一生态系统中便无法正常运行,从而在竞争异常激烈的市场中引发延误、挑战及丢失机遇。
为此,将 DigiCert Device Trust Manager 与 Panasonic 的 PAN-MaX 服务整合,旨在简化 Matter 认证流程,加速安全且符合标准的设备交付。根据 DigiCert 和 Panasonic Industry Europe 的表述,此次整合的最终目标是为制造商提供一个更快速、更高效的生产流程。
两家公司均相信,此次整合将为制造商带来诸多关键优势,例如自动 DAC 颁发、内置安全与合规性以及更快的上市时间。
具体而言,他们保证在 DAC 颁发方面,证书的申请与发放均为实时进行,无需人工干预,而 DAC 为物联网 ( IoT ) 设备提供加密、身份识别与身份验证服务。此外,无线模块现已具备 Matter 就绪状态,从生产之初便内置身份验证,制造商无需再等待手动审批证书,因为安全验证将在生产线上直接完成。
“通过将 Panasonic 的 PAN-MaX 认证服务与 DigiCert 行业领先的认证服务相结合,我们确保制造商在不以速度牺牲安全的前提下,轻松获得 Matter 认证。” — Panasonic Industry Europe 的 Chetan Joshi
“DigiCert 是 Matter 的关键贡献者,也是少数几家能够颁发 Matter 设备认证证书的可信机构之一,” DigiCert 产品管理高级总监 Kevin Hilscher 如是说。
“借助与 Panasonic Industry Europe 的合作,客户现可通过全自动系统即时申请证书,消除多余步骤并优化安全流程。该流程使制造商能够专注于创新,确保安全性与 Matter 认证加速业务发展,而非拖慢进度。”
Panasonic Industry Europe 资深产品经理 Chetan Joshi 补充道:“智能家居革命的蓬勃发展需要信任作为基础。Panasonic Industry Europe 与 DigiCert 正在树立全新的信任标准,使得智能家居设备不仅实现互联互通,更在生产之初便具备安全保障和认证。”
“通过将 Panasonic 的 PAN-MaX 认证服务与 DigiCert 行业领先的认证服务相结合,我们确保制造商在不以速度牺牲安全的前提下,轻松获得 Matter 认证。”
好文章,需要你的鼓励
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
谷歌在Android Show发布会上宣布,将Gemini更深度整合至Android系统,推出名为"Gemini Intelligence"的升级功能。该功能可跨应用处理日常任务,包括自动填写表单、安排日程、生成购物清单及自定义小组件等,无需用户频繁切换应用。此外,Gboard新增"Rambler"功能,可自动过滤语音输入中的口误和填充词。Gemini Intelligence将率先登陆三星Galaxy和谷歌Pixel手机,并支持Android Auto、Wear OS及智能眼镜。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。