不知不觉,2023已经悄然而至。回顾2022年IT行业,基于OpenAI的ChatGPT自公测以来便吸引了全世界的目光。从情书到求职函,从道歉信到抒情诗……网友们甚至在讨论ChatGPT是否有可能成为世界最大的“搜索引擎”,甚至能否有潜力通过图灵测试。
就在人们通过ChatGPT解答各种“光怪陆离”问题的时候,Check Point公司的研究团队(CPR)已开始着手分析OpenAI技术对信息安全领域将产生何种影响。研究发现,借助 Open AI 的 ChatGPT,CPR 能够创建网络钓鱼电子邮件,其中随附的 Excel 文档附带能够下载反向 shell 的恶意代码。反向 shell 攻击旨在连接到远程计算机并重定向目标系统 shell 的输入和输出连接,以便攻击者进行远程访问。
CPR使用 ChatGPT 的操作步骤 (出于安全目的考量,CPR在分享中隐去了向ChatGPT提出的问题)
图 1.通过 ChatGPT 生成的基本网络钓鱼电子邮件
图 2.通过 ChatGPT 生成的迭代后的网络钓鱼电子邮件
图 3.通过 ChatGPT 生成的简单 VBA 代码
这一演示表明,使用 ChatGPT 创建恶意网络钓鱼电子邮件和代码完全可能,不法分子的犯罪成本将再次下降,互联网用户应注意新的人工智能技术可能给网络威胁形势带来的潜在风险。
为进一步研究人工智能对互联网安全的影响,CPR团队通过同样基于OpenAI的Codex平台成功生成了恶意代码。(出于安全考量,CPR仅公布部分操作环节)在操作过程中,CPR 向 Codex 提出要求,主要包括在一台 Windows 设备商执行反向 shell 脚本并连接到特定 IP 地址,以管理员身份登录、检查 URL 是否存在 SQL 注入风险,以及编写可在目标机器上运行全端口扫描的 python 脚本。在一系列操作以及需求修订后,Codex 生成了恶意代码。
Check Point 软件技术公司威胁情报事业部经理 Sergey Shykevich表示:“人工智能技术有可能显著改变网络威胁形势。现在,任何拥有最少量资源和零代码知识的人都能够轻松利用它来设计网络攻击。生成恶意电子邮件和代码变得易如反掌,黑客还可以利用 ChatGPT 和 Codex 对恶意代码进行迭代。为提醒公众,我们演示了使用 ChatGPT 和 Codex 来创建恶意邮件和代码是多么容易。我认为,人工智能技术代表着日益复杂和强大的网络能力,这些能力正在加速网络安全世界的变化。随着 ChatGPT 和 Codex 日渐成熟,用户保持警惕变得更加重要,因为类似这样的新兴技术会对随时改变网络威胁的现状。”
好文章,需要你的鼓励
Liquid AI发布了新一代视觉语言基础模型LFM2-VL,专为智能手机、笔记本电脑和嵌入式系统等设备高效部署而设计。该模型基于独特的LIV系统架构,GPU推理速度比同类模型快2倍,同时保持竞争性能。提供450M和1.6B两个版本,支持512×512原生分辨率图像处理,采用模块化架构结合语言模型和视觉编码器。模型已在Hugging Face平台开源发布。
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
阿里团队推出首个AI物理推理综合测试平台DeepPHY,通过六个物理环境全面评估视觉语言模型的物理推理能力。研究发现即使最先进的AI模型在物理预测和控制方面仍远落后于人类,揭示了描述性知识与程序性控制间的根本脱节,为AI技术发展指明了重要方向。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。