不知不觉,2023已经悄然而至。回顾2022年IT行业,基于OpenAI的ChatGPT自公测以来便吸引了全世界的目光。从情书到求职函,从道歉信到抒情诗……网友们甚至在讨论ChatGPT是否有可能成为世界最大的“搜索引擎”,甚至能否有潜力通过图灵测试。
就在人们通过ChatGPT解答各种“光怪陆离”问题的时候,Check Point公司的研究团队(CPR)已开始着手分析OpenAI技术对信息安全领域将产生何种影响。研究发现,借助 Open AI 的 ChatGPT,CPR 能够创建网络钓鱼电子邮件,其中随附的 Excel 文档附带能够下载反向 shell 的恶意代码。反向 shell 攻击旨在连接到远程计算机并重定向目标系统 shell 的输入和输出连接,以便攻击者进行远程访问。
CPR使用 ChatGPT 的操作步骤 (出于安全目的考量,CPR在分享中隐去了向ChatGPT提出的问题)
图 1.通过 ChatGPT 生成的基本网络钓鱼电子邮件
图 2.通过 ChatGPT 生成的迭代后的网络钓鱼电子邮件
图 3.通过 ChatGPT 生成的简单 VBA 代码
这一演示表明,使用 ChatGPT 创建恶意网络钓鱼电子邮件和代码完全可能,不法分子的犯罪成本将再次下降,互联网用户应注意新的人工智能技术可能给网络威胁形势带来的潜在风险。
为进一步研究人工智能对互联网安全的影响,CPR团队通过同样基于OpenAI的Codex平台成功生成了恶意代码。(出于安全考量,CPR仅公布部分操作环节)在操作过程中,CPR 向 Codex 提出要求,主要包括在一台 Windows 设备商执行反向 shell 脚本并连接到特定 IP 地址,以管理员身份登录、检查 URL 是否存在 SQL 注入风险,以及编写可在目标机器上运行全端口扫描的 python 脚本。在一系列操作以及需求修订后,Codex 生成了恶意代码。
Check Point 软件技术公司威胁情报事业部经理 Sergey Shykevich表示:“人工智能技术有可能显著改变网络威胁形势。现在,任何拥有最少量资源和零代码知识的人都能够轻松利用它来设计网络攻击。生成恶意电子邮件和代码变得易如反掌,黑客还可以利用 ChatGPT 和 Codex 对恶意代码进行迭代。为提醒公众,我们演示了使用 ChatGPT 和 Codex 来创建恶意邮件和代码是多么容易。我认为,人工智能技术代表着日益复杂和强大的网络能力,这些能力正在加速网络安全世界的变化。随着 ChatGPT 和 Codex 日渐成熟,用户保持警惕变得更加重要,因为类似这样的新兴技术会对随时改变网络威胁的现状。”
好文章,需要你的鼓励
在2025年KubeCon/CloudNativeCon北美大会上,云原生开发社区正努力超越AI炒作,理性应对人工智能带来的风险与机遇。随着开发者和运营人员广泛使用AI工具构建AI驱动的应用功能,平台工程迎来复兴。CNCF推出Kubernetes AI认证合规程序,为AI工作负载在Kubernetes上的部署设定开放标准。会议展示了网络基础设施层优化、AI辅助开发安全性提升以及AI SRE改善可观测性工作流等创新成果。
香港大学研究团队提出LightReasoner框架,通过让小型"业余"模型与大型"专家"模型对比,识别关键推理步骤并转化为训练信号。该方法在数学推理任务上实现28.1%性能提升,同时将训练时间、样本需求和词元使用量分别减少90%、80%和99%,完全无需人工标注。研究颠覆了传统训练思路,证明通过模型间行为差异可以实现高效的自监督学习,为资源受限环境下的AI能力提升提供了新路径。
DeepL作为欧洲AI领域的代表企业,正将业务拓展至翻译之外,推出面向企业的AI代理DeepL Agent。CEO库蒂洛夫斯基认为,虽然在日常翻译场景面临更多竞争,但在关键业务级别的企业翻译需求中,DeepL凭借高精度、质量控制和合规性仍具优势。他对欧盟AI法案表示担忧,认为过度监管可能阻碍创新,使欧洲在全球AI竞争中落后。
马里兰大学研究团队开发了MONKEY适配器,一种无需额外训练的AI绘画控制技术。该方法通过"两步走"策略解决了个性化AI绘画中主体保真与背景控制难以兼得的问题:先让AI识别主体区域生成"透明胶片",再在第二次生成中让主体区域听从参考图片、背景区域听从文字描述。实验证明该方法在保持主体特征和响应文字要求两方面均表现出色,为AI绘画的精细化控制提供了新思路。