至顶网网络与安全频道 02月06日 综合消息: 2020 年 2 月 5 日 – 网络安全解决方案提供商Check Point 软件技术有限公司(纳斯达克股票代码:CHKP)的威胁情报部门 Check Point Research 今天披露了一些漏洞,它们可被黑客用于接管智能电灯及其控制器,进而将勒索软件或其他恶意软件传播到商用和家用网络。

Check Point 研究人员展示了攻击者如何利用物联网(智能电灯泡及其控桥)对家庭、企业乃至智慧城市中的传统计算机网络发起攻击。研究人员重点研究了市场领先的飞利浦 Hue 智能电灯泡和桥接器,并发现一些漏洞 (CVE-2020-6007) 允许他们使用 ZigBee 低功耗无线协议(用于控制各种物联网设备)中的远程利用程序侵入网络。
2017 年对 ZigBee 控制智能电灯泡安全性的一项分析显示,研究人员能够控制网端 Hue 电灯泡,并安装恶意固件。由于设计限制,厂商只能修复传播漏洞,因此攻击者仍可接管目标的 Hue 电灯泡。利用这一遗留漏洞,我们的研究人员决定更进一步,使用 Hue 电灯泡作为平台来接管电灯泡的控制桥接器,并最终攻击目标的计算机网络。攻击场景如下:
1.黑客控制电灯泡的颜色或亮度,让用户误以为电灯泡出现故障。该电灯泡在用户的控制应用中显示为“无法访问”,因此用户将尝试对其进行“重置”。
2.重置电灯泡的唯一方法是将它从应用中删除,然后命令控制桥接器重新发现电灯泡。
3.控制桥接器发现受攻击的电灯泡,用户将其重新添加到网络中。
4.然后,装有更新固件的黑客控制电灯泡使用 ZigBee 协议漏洞向控制桥接器发送大量数据,以触发堆缓冲区溢出。此外,这些数据还允许黑客在控制桥接器上安装恶意软件,进而连接到目标商用或家用网络。
5.恶意软件连接回黑客。借助已知漏洞(例如 EternalBlue),黑客通过控制桥接器侵入目标 IP 网络,以传播勒索软件或间谍软件。
Check Point Research 发言人表示:“许多人都知道,物联网设备可能带来安全风险,但这项研究表明,即使是最不起眼的设备(例如电灯泡)也会被黑客用于接管网络或植入恶意软件。因此,组织和个人必须使用最新修补程序更新设备,并将其与网络上的其他设备隔离开,以限制恶意软件的潜在传播,从而保护自身免遭可能出现的攻击。在当今复杂的第五代攻击环境中,我们不能忽视任何联网设备的安全性。”
这项研究在特拉维夫大学 Check Point 信息安全研究所 (CPIIS) 的帮助下完成,并于 2019 年 11 月与飞利浦和 Signify(飞利浦品牌的母公司)共同披露。Signify 确认其产品存在漏洞,并在随后开发了修补程序(固件 1935144040),该补丁已通过自动方式进行了相关产品升级。Check Point建议该产品用户检查自动升级设置,以确保产品升级至最新固件。
“我们承诺将尽一切可能确保我们的产品是种安全,同时保护用户的隐私不受侵犯。我们衷心感谢Check Point的发现以及后续安全方面的合作,这使我们能够及时推出必要的补丁从而避免了我们用户可能面对的风险。”George Yianni,飞利浦 Hue公司技术总监。
Check Point 率先提供整合安全解决方案,以强化并保护物联网设备固件。凭借最近收购的技术,Check Point 可支持组织使用设备自带运行时保护功能规避其面临的潜在设备级攻击。
好文章,需要你的鼓励
尽管全球企业AI投资在2024年达到2523亿美元,但MIT研究显示95%的企业仍未从生成式AI投资中获得回报。专家预测2026年将成为转折点,企业将从试点阶段转向实际部署。关键在于CEO精准识别高影响领域,推进AI代理技术应用,并加强员工AI能力培训。Forrester预测30%大型企业将实施强制AI培训,而Gartner预计到2028年15%日常工作决策将由AI自主完成。
这项由北京大学等机构联合完成的研究,开发了名为GraphLocator的智能软件问题诊断系统,通过构建代码依赖图和因果问题图,能够像医生诊断疾病一样精确定位软件问题的根源。在三个大型数据集的测试中,该系统比现有方法平均提高了19.49%的召回率和11.89%的精确率,特别在处理复杂的跨模块问题时表现优异,为软件维护效率的提升开辟了新路径。
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
这项由德国达姆施塔特工业大学领导的国际研究团队首次发现,当前最先进的专家混合模型AI系统存在严重安全漏洞。通过开发GateBreaker攻击框架,研究人员证明仅需关闭约3%的特定神经元,就能让AI的攻击成功率从7.4%暴增至64.9%。该研究揭示了专家混合模型安全机制过度集中的根本缺陷,为AI安全领域敲响了警钟。