根据技术治理和数字信任协会 Isaca 的研究显示,超过 40% 的欧洲隐私专业人士认为他们的组织在数据隐私计划上投入不足,54% 预计在 2025 年将获得更少的资金支持。
尽管欧洲的《通用数据保护条例》(GDPR) 及其英国对应版本早在 2018 年 5 月就已生效,但 Isaca 的调查发现,仅有 38% 的欧洲专业人士对其组织保护敏感客户和员工数据的能力有信心。
Isaca 还警告说,只有 24% 的欧洲组织遵循隐私设计原则,许多组织可能违反 GDPR 和其他新的欧盟框架及法规,如人工智能法案和数字服务法案等。
Isaca 全球首席战略官 Chris Dimitriadis 表示:"随着威胁形势持续复杂化,隐私领域的运营难度不断增加,同时也变得更加重要。我们调查的欧洲隐私从业人员中,66% 表示与五年前相比,他们的工作压力更大。持续的资金不足更是加剧了这一问题。虽然公司可能在短期内获得财务收益,但他们正在承担长期风险。"
报告发现,欧洲企业面临的问题因人员配备不足而变得更加复杂,52% 的技术隐私团队无法填补空缺职位,与去年相比仅改善了 1%。受访者还表示他们在留住员工方面面临困境。
隐私设计为部分企业带来收益
从积极的方面来看,Isaca 发现采用隐私设计最佳实践的组织表现更好,更可能拥有适当的人员配备和更少的技能差距。在实践隐私设计的组织中,43% 表示他们有足够的一线员工,58% 的领导者因此对其技术隐私团队"非常有信心"。
有趣的是,56% 的隐私设计支持者表示,通过培训渴望拓展技能的非隐私员工,他们有效地减少了知识差距,相比之下,未采用这一做法的组织只有 44%。
在存在技能差距的领域,主要集中在不同应用程序和技术的经验、技术专业知识以及 IT 运营知识和技能等方面。
尽管如此,Isaca 表示,创建实现隐私设计合规所需的适当技能和支持的员工队伍显然是可以实现的。研究发现,47% 的组织现在提供培训,允许非隐私员工转向隐私职位,更多组织正在考虑其他合规或法律职能经验等因素,作为发掘最佳内部人才的有效方式。
Dimitriadis 说:"实践隐私设计并在整个企业中嵌入隐私是长期数据保护的关键。这种全面的方法能够培养与利益相关者的信任,并防范不断演变的威胁—但如果没有感到准备充分且能够从技术、业务和合规角度推动隐私实践的熟练隐私团队,这是不可能实现的。"
他补充道:"有几种方法可以填补技能差距。除了法律合规知识外,还要为隐私员工提供新兴技术、隐私增强技术以及网络安全和数据保护架构方面的培训和持续支持,这对管理他们的压力和维护组织韧性至关重要。"
好文章,需要你的鼓励
工业升级的关键,或许在于智能本身。“工业+机器人”将成为通向下一阶段工业体系的核心抓手。——黄仁勋。
浙江大学等联合研究发现,AI强化学习效果取决于"模型-任务对齐"程度。当AI擅长某任务时,单样本训练、错误奖励等非常规方法也有效;但面对陌生任务时,这些方法失效,只有标准训练有用。研究团队通过大量实验证实,这种"舒适圈"现象比数据污染更能解释训练差异,为AI训练策略优化提供了新思路。
瑞士政府正式发布了自主研发的人工智能模型,该模型完全基于公共数据进行训练。这一举措标志着瑞士在AI技术自主化方面迈出重要一步,旨在减少对外国AI技术的依赖,同时确保数据安全和隐私保护。该模型的推出体现了瑞士对发展本土AI能力的战略重视。
巴赫切希尔大学研究团队通过对五种不同规模YOLO模型的量化鲁棒性测试发现,静态INT8量化虽能带来1.5-3.3倍速度提升,但会显著降低模型对噪音等图像损伤的抵抗能力。他们提出的混合校准策略仅在大型模型处理噪音时有限改善,揭示了效率与鲁棒性平衡的复杂挑战。