不知不觉,2023已经悄然而至。回顾2022年IT行业,基于OpenAI的ChatGPT自公测以来便吸引了全世界的目光。从情书到求职函,从道歉信到抒情诗……网友们甚至在讨论ChatGPT是否有可能成为世界最大的“搜索引擎”,甚至能否有潜力通过图灵测试。
就在人们通过ChatGPT解答各种“光怪陆离”问题的时候,Check Point公司的研究团队(CPR)已开始着手分析OpenAI技术对信息安全领域将产生何种影响。研究发现,借助 Open AI 的 ChatGPT,CPR 能够创建网络钓鱼电子邮件,其中随附的 Excel 文档附带能够下载反向 shell 的恶意代码。反向 shell 攻击旨在连接到远程计算机并重定向目标系统 shell 的输入和输出连接,以便攻击者进行远程访问。
CPR使用 ChatGPT 的操作步骤 (出于安全目的考量,CPR在分享中隐去了向ChatGPT提出的问题)
图 1.通过 ChatGPT 生成的基本网络钓鱼电子邮件
图 2.通过 ChatGPT 生成的迭代后的网络钓鱼电子邮件
图 3.通过 ChatGPT 生成的简单 VBA 代码
这一演示表明,使用 ChatGPT 创建恶意网络钓鱼电子邮件和代码完全可能,不法分子的犯罪成本将再次下降,互联网用户应注意新的人工智能技术可能给网络威胁形势带来的潜在风险。
为进一步研究人工智能对互联网安全的影响,CPR团队通过同样基于OpenAI的Codex平台成功生成了恶意代码。(出于安全考量,CPR仅公布部分操作环节)在操作过程中,CPR 向 Codex 提出要求,主要包括在一台 Windows 设备商执行反向 shell 脚本并连接到特定 IP 地址,以管理员身份登录、检查 URL 是否存在 SQL 注入风险,以及编写可在目标机器上运行全端口扫描的 python 脚本。在一系列操作以及需求修订后,Codex 生成了恶意代码。
Check Point 软件技术公司威胁情报事业部经理 Sergey Shykevich表示:“人工智能技术有可能显著改变网络威胁形势。现在,任何拥有最少量资源和零代码知识的人都能够轻松利用它来设计网络攻击。生成恶意电子邮件和代码变得易如反掌,黑客还可以利用 ChatGPT 和 Codex 对恶意代码进行迭代。为提醒公众,我们演示了使用 ChatGPT 和 Codex 来创建恶意邮件和代码是多么容易。我认为,人工智能技术代表着日益复杂和强大的网络能力,这些能力正在加速网络安全世界的变化。随着 ChatGPT 和 Codex 日渐成熟,用户保持警惕变得更加重要,因为类似这样的新兴技术会对随时改变网络威胁的现状。”
好文章,需要你的鼓励
香港中文大学与华为诺亚方舟实验室合作开发了PreMoe框架,解决了大型混合专家模型(MoE)在内存受限设备上的部署难题。研究团队发现MoE模型中的专家表现出明显的任务专业化特征,据此提出了概率专家精简(PEP)和任务自适应专家检索(TAER)两大核心技术。实验证明,DeepSeek-R1 671B模型在精简50%专家后仍保持97.2%的MATH500准确率,内存需求降至688GB;而更激进的精简方案(减少87.5%专家)也能保持72.0%的准确率。该方法适用于多种MoE架构,为强大AI系统的广泛部署铺平了道路。
SCIENCEBOARD是一项开创性研究,旨在评估多模态自主智能体在真实科学工作流中的表现。研究团队构建了一个包含169个高质量任务的基准测试,涵盖生物化学、天文学等六个科学领域,并开发了一个真实环境让智能体通过CLI或GUI接口与科学软件交互。实验评估表明,即使是最先进的模型在这些复杂科学任务上的成功率也仅为15%,远低于人类表现,揭示了当前技术的局限性并为未来科学智能体的发展提供了宝贵见解。
帝国理工学院的研究团队开发了AlphaMed,这是首个仅通过极简规则强化学习就能培养医疗推理能力的AI模型,无需依赖传统的思维链示范数据。通过分析数据信息丰富度和难度分布的影响,研究发现高信息量的医疗问答数据是推理能力的关键驱动因素。AlphaMed在六个医疗问答基准上取得了领先成绩,甚至超越了更大的封闭源模型,同时展现出自发的步骤推理能力,为医疗AI发展提供了更加开放、高效的新路径。
Alita是一种新型通用AI代理系统,采用极简设计理念,以"最小预定义,最大自我进化"为原则构建。由普林斯顿大学等多家机构研究团队开发的Alita,只配备一个核心能力和少量通用模块,能自主创建所需工具并重用为模型上下文协议(MCPs)。实验显示,Alita在GAIA基准测试上达到87.27%的通过率,超越包括OpenAI Deep Research在内的复杂系统,证明简约设计可带来卓越性能。