根据最新调查显示,人工智能正在重塑从创意产业到网络安全等各个领域,但有一个群体对基于 AI 的安全解决方案表现出最大的怀疑 - 这就是 Z 世代。
Frontegg 的新调查显示,高达 72% 的 Z 世代不信任基于 AI 的安全技术,使他们成为在数字安全方面最为怀疑的一代。
这种不信任显得格外具有讽刺意味,因为 Z 世代是在科技主导的世界中成长起来的。他们已经轻松地将智能设备、面部识别和数字钱包融入日常生活。但在 AI 掌控他们的安全方面,他们却选择了退缩。
Z 世代对 AI 持怀疑态度的根源
Frontegg 首席技术官 Aviad Mizrachi 认为,这种怀疑态度源于 Z 世代的科技成长环境。
"Z 世代与智能科技一同成长,但同时也经历了数据泄露和监控丑闻。这种持续的暴露让他们在隐私方面形成了更敏锐的辨别能力,"Mizrachi 在邮件交流中解释道。
"他们愿意尝试最前沿的技术,但也高度关注 AI 现在才刚刚步入正轨这一事实 - 他们正在严格审视 AI 是否能实现其承诺。"
他补充说,另一个令人担忧的原因是 AI 在生物识别认证中的应用。当老年群体对面部识别和指纹识别的接受度越来越高时,接近一半 (49%) 的受访者表示担心面部识别技术被用来跟踪他们。
"人们对面部识别被用于跟踪的担忧并非完全没有根据,"Mizrachi 指出。"虽然面部识别背后的技术能够实现安全登录和设备访问,但它也被用于研究、公共监控和执法 - 通常是在未经同意的情况下。"
选择密码而非 AI - 这是信任问题,而非技术问题
即使引入了基于 AI 的认证,大多数用户 (61%) 仍然更信任传统的密码而非 AI 安全技术。这种偏好凸显了一个更大的问题 - 即使 AI 安全措施更安全,公众可能甚至不了解它们,更不用说信任它们了。
"对密码的信任更多是源于熟悉感,而非实际的安全性。人们理解密码的工作原理 - 他们已经使用了几十年。AI 安全感觉抽象且复杂,即使它客观上更好。在 AI 驱动的方法变得更加主流之前,人们可能会对全面采用持犹豫态度。这是时间问题,而非可能性问题,"Mizrachi 写道。
生物识别 - AI 安全的门槛还是障碍?
有趣的是,当 AI 驱动的认证正在应对信任问题时,生物识别解决方案正在赢得早期采用者的认可。Frontegg 的调查发现,57% 的"技术精通"用户已经在使用生物识别认证。然而,主流采用的速度较慢,隐私问题仍然笼罩其上。
"为了弥合这一差距,公司需要提供选择加入的体验,让用户在获得清晰、直接的信息的同时尝试生物识别工具。激励措施是有效的 - 比如更快的访问速度、更少的锁定或者甚至是忠诚度奖励。最重要的是,品牌需要传达用户数据是如何被保护的。透明度是建立信任的关键,"Mizrachi 建议道。
AI 安全的未来 - 教育和透明度
Mizrachi 指出,解决这些信任问题需要帮助用户理解技术、其工作原理以及为什么它是必要的。
"教育是解决问题的重要一环。大多数消费者不知道面部识别是如何工作的,或者他们的生物识别数据去了哪里。简单、引人入胜的说明 - 短视频、交互式演示、可视化仪表盘 - 可以在很大程度上帮助用户感到更有控制力,减少怀疑。"
随着行业向更多 AI 驱动的安全措施转变,这种学习机会将变得重要。Mizrachi 表示,认证的未来将围绕着"具有分层信任信号的无摩擦体验",其中 AI 安全在幕后运行,只在需要时才会介入。
Z 世代会信任 AI 安全吗?
目前,Z 世代是在 AI 驱动安全方面最怀疑的一代。但随着 AI 验证继续发展,组织提供更大的透明度,这种怀疑可能会开始消散。在此期间,安全供应商和企业不仅要开发更好的 AI,还要建立更好的信任。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。