Palo Alto Networks的Unit 42网络咨询和威胁情报团队主管Vicky Ray表示,这个话题在他心中已经有一段时间了。在Black Hat之前接受The Register的采访时,他表示希望他关于骗子综合症的讲座能够鼓励人们敞开心扉并讨论解决方案。
根据Ray的说法,其中之一是日本的Ikigai概念。
Ikigai(发音为ee-key-guy)将“iki”(意为生活)与“gai”(意为价值或价值)结合起来。
展示这个概念的图表使用四个重叠的圆圈,分别代表你所热爱的事物、你擅长的事物、你可以得到报酬的事物以及世界所需要的事物。这四个圆圈的交集就是Ikigai。
Ray表示,这个概念可以帮助人们在职业生涯中找到标,并帮助安全专业人员克服骗子综合症。
Ray说:“所有从事安工作的人都面临着巨大的压力。”“我们都必须更加关注这个问题,因为如果我们这样做,我认为我们将能够发掘出很多人的潜力。”
“大多数人觉得自己不够好”
作为他的工作的一部分,Ray在不同的活动和会议上做了很多演讲。在过去几年里,他注意到人们在他演讲后接近他的时候有一个趋势,这个趋势包括想要被雇佣的学生以及经验丰富的专业人士。
他说:“大多数人觉得自己不够好。”“人们与我分享了很多同样的问题,这是触发点。”
为什么这种不足感会渗入我们的职业生活并让我们充满自我怀疑,有很多原因。首先,威胁形势不断扩大,攻击越来越严重,利用漏洞造成最大损害的方式也越来越多。攻击面继续扩大,连接设备和入口点越来越多,人工智能和LLMs等新技术需要防御者有更多的知识,并为坏人提供了破坏IT环境的新方法。
人们开始将自己与其他很多人进行比较,这会增加不确定性,然后你开始质疑自己。
有很多媒体,包括社交媒体,在新颖的攻击和新技术方面提供了很多信息,虽然所有这些信息都可能有所帮助和启发,但也可能让人感到不知所措。
Ray说:“有很多人在线上分享很多很酷的东西。”“但这也意味着很多人开始将自己与其他很多人进行比较,然后这就增加了不确定性,然你开始质疑自己。”
应用Ikig的概念可以帮助们在生活和职业中找到意义,并检查每个领,找出需要改进的地方,这可以助个人摆脱职业低谷或缓解骗子综合症,Ray说。
看看最上面的圆圈,也就是你所热爱的事物,对他来说总是很容易的。Ray在印度读六年级就爱上了网络安全,当时他在地图书馆阅了一篇1984年Popular Mechanics文章,介绍了“被称为黑客的计算机奇才如何帮助打击数字犯罪。
Ray说,随着我不断成长和学习,我变得擅长这个领域,然后最终开始得到报酬。”这就满足了另外两个圆圈的要求。但是最后一个领域,“世界所需要的事物”,却缺乏。“我意识到我有一些缺失的地方,”他说。“这就是我如何在全球范围内产生更大影响力并回馈社会的想法。”
Ray通过与执法部门合作找到了这个答案,具体来说是与Interpol合作的Unit 42以及帮助美国和国际警方打击商业电子邮件欺诈(BEC)团伙、提供DDoS服务和其他网络犯罪组织的行动。
这还包括2022年5月的Delilah行动,该行动包括逮捕一名涉嫌经营跨洲际网络钓鱼团伙的尼日利亚人。仅在过去一年中,Unit 42参与了导致逮捕其他12名尼日利亚BEC诈骗者的行动。
Ray说:“这对世界的影响——我无法向你表达给我带来的幸福或满足感。”“这就是我的Ikigai。当然,Ikigai会随着时间而改变。但我现在是平衡的。”
他补充说,这并不意味着Ikigai是解决骗子综合症的唯一方法,也不意味着它能解决每个人的不足感。“但我认为它会有很大帮助,并给我们更多的方向。”
好文章,需要你的鼓励
Liquid AI发布了新一代视觉语言基础模型LFM2-VL,专为智能手机、笔记本电脑和嵌入式系统等设备高效部署而设计。该模型基于独特的LIV系统架构,GPU推理速度比同类模型快2倍,同时保持竞争性能。提供450M和1.6B两个版本,支持512×512原生分辨率图像处理,采用模块化架构结合语言模型和视觉编码器。模型已在Hugging Face平台开源发布。
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
阿里团队推出首个AI物理推理综合测试平台DeepPHY,通过六个物理环境全面评估视觉语言模型的物理推理能力。研究发现即使最先进的AI模型在物理预测和控制方面仍远落后于人类,揭示了描述性知识与程序性控制间的根本脱节,为AI技术发展指明了重要方向。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。