自去年ChatGPT上线以来,就不断受到全球各界人士关注。在本月,ChatGPT宣布其成为IT史上最快达成月活用户超一亿的应用。对比54个月达成过亿月活用户的Facebook,以及9个月用户过亿的抖音国际版,ChatGPT这一成就可谓前无古人,而这也正印证了AI技术的无限可能。在我国,ChatGPT相关话题也于近日登上热搜,一众AI相关公司也受到资本市场热捧。
然而,对于网络犯罪分子如何利用 OpenAI 平台,特别是 ChatGPT 来生成钓鱼邮件和恶意软件等恶意内容,业界众说纷纭,且已有颇多研究。在 Check Point Research (CPR) 今年初的报告中,描述了使用 ChatGPT 完成的一个完整的感染流程:从创建令人信服的鱼叉式网络钓鱼电子邮件到运行能够接受英文命令的反向 shell。
CPR 研究人员最近发现了一个网络犯罪分子使用 ChatGPT 来“改进”一款简易 Infostealer 恶意软件代码的实例。该恶意软件最早出现于 2019 年,虽然其代码并不复杂,也不难创建,但 ChatGPT 对其代码进行了优化。
图 1.网络犯罪分子使用 ChatGPT 来改进 Infostealer 的代码
使用 OpenAI 模型
截至目前,可通过两种方法访问和使用 OpenAI 模型:
下面的示例显示了已将 OpenAI 的 API 模型整合到旗下应用的合法品牌。
图 2.使用 OpenAI 的 API 模型的品牌
阻碍恶意内容创建的障碍
作为内容政策的一部分,OpenAI 设置了相关障碍和限制,以阻止在其平台上创建恶意内容。ChatGPT 在其用户界面上设置了一些限制来防止模型的滥用。举例来说,如果用户要求 ChatGPT 编写一封冒充银行的钓鱼邮件或创建一个恶意软件,系统将不会执行。
图 3.ChatGPT 对滥用请求的响应示例
绕过限制创建恶意内容
然而,CPR 表示,网络犯罪分子正想方设法绕过 ChatGPT 的限制。在地下论坛上有关如何使用 OpenAI API 来绕过 ChatGPT 障碍和限制的讨论帖不断激增。
图 4.网络犯罪分子对通过 API 将 ChatGPT 整合到其 Telegram 频道中表现出兴趣
当前版本的 OpenAI API 虽为外部应用所使用(例如,将 OpenAI 的 GPT-3 模型整合到 Telegram 频道中),但几乎没有任何防滥用措施。它并未实施 ChatGPT 在其用户界面上设置的限制或障碍,允许创建钓鱼邮件和恶意软件代码等恶意内容。
例 1——Telegram OpenAI 机器人即服务
在一个地下论坛上,CPR 发现有网络犯罪分子正在宣传一项新创建的服务:支持无限制地使用 OpenAI API 的 Telegram 机器人。
图 5.宣传 Telegram OpenAI 机器人的地下论坛广告
图 6.在利用 OpenAI API 的 Telegram 机器人中创建的钓鱼邮件示例
图 7.在利用 OpenAI API 的 Telegram 机器人中创建无防滥用限制的恶意软件代码的示例
作为商业模式的一部分,网络犯罪分子可以使用 ChatGPT 进行 20 次免费查询,此后每 100 次查询需支付 5.50 美元。
图 8.基于 OpenAI API 的 Telegram 频道的商业模式
例 2——网络犯罪分子提供的一个可绕过防滥用限制的简单脚本
网络犯罪分子创建了一个使用 OpenAI API 来绕过防滥用限制的简单脚本。
图 9.可直接查询 API 并绕过限制来开发恶意软件的脚本示例
通过这些案例,Check Point观察到网络犯罪分子不断探索如何利用 ChatGPT 来满足其开发恶意软件和创建钓鱼邮件的需求。随着 ChatGPT 控制措施的改进,网络犯罪分子也将不断寻找新的方法来使用 OpenAI 模型。因此可以预见,随着AI技术的不断落地,网络犯罪分子的“技术成本”将进一步降低;随之而来的网络攻击数量也将不断增长。因此,以预防为主、以AI对抗AI的网络安全模式可能将成为未来几年的主要发展趋势。
好文章,需要你的鼓励
香港中文大学与华为诺亚方舟实验室合作开发了PreMoe框架,解决了大型混合专家模型(MoE)在内存受限设备上的部署难题。研究团队发现MoE模型中的专家表现出明显的任务专业化特征,据此提出了概率专家精简(PEP)和任务自适应专家检索(TAER)两大核心技术。实验证明,DeepSeek-R1 671B模型在精简50%专家后仍保持97.2%的MATH500准确率,内存需求降至688GB;而更激进的精简方案(减少87.5%专家)也能保持72.0%的准确率。该方法适用于多种MoE架构,为强大AI系统的广泛部署铺平了道路。
SCIENCEBOARD是一项开创性研究,旨在评估多模态自主智能体在真实科学工作流中的表现。研究团队构建了一个包含169个高质量任务的基准测试,涵盖生物化学、天文学等六个科学领域,并开发了一个真实环境让智能体通过CLI或GUI接口与科学软件交互。实验评估表明,即使是最先进的模型在这些复杂科学任务上的成功率也仅为15%,远低于人类表现,揭示了当前技术的局限性并为未来科学智能体的发展提供了宝贵见解。
帝国理工学院的研究团队开发了AlphaMed,这是首个仅通过极简规则强化学习就能培养医疗推理能力的AI模型,无需依赖传统的思维链示范数据。通过分析数据信息丰富度和难度分布的影响,研究发现高信息量的医疗问答数据是推理能力的关键驱动因素。AlphaMed在六个医疗问答基准上取得了领先成绩,甚至超越了更大的封闭源模型,同时展现出自发的步骤推理能力,为医疗AI发展提供了更加开放、高效的新路径。
Alita是一种新型通用AI代理系统,采用极简设计理念,以"最小预定义,最大自我进化"为原则构建。由普林斯顿大学等多家机构研究团队开发的Alita,只配备一个核心能力和少量通用模块,能自主创建所需工具并重用为模型上下文协议(MCPs)。实验显示,Alita在GAIA基准测试上达到87.27%的通过率,超越包括OpenAI Deep Research在内的复杂系统,证明简约设计可带来卓越性能。