AI 驱动的代码生成工具正在重塑开发者编写软件的方式,但同时也给软件供应链带来了新的风险。
与大语言模型类似,AI 编程助手也存在幻觉问题。它们会推荐包含不存在软件包的代码。
去年 3 月和 9 月,安全和学术研究人员发现 AI 代码助手会虚构包名。最近的一项研究表明,商业模型约 5.2% 的包建议是不存在的,而开源模型则高达 21.7%。
运行这些代码时,导入不存在的包应该会报错。但不法分子已经意识到可以利用这种幻觉来谋取私利。
他们只需要用虚构的包名创建恶意软件包,然后将其上传到 PyPI 或 npm 等包注册表进行分发。此后,当 AI 代码助手再次产生相同的幻觉时,安装依赖和执行代码的过程就会运行这些恶意软件。
这种重复出现似乎呈双峰模式 - 当重新运行提示时,一些虚构的包名会反复出现,而其他则完全消失 - 这表明某些提示会可靠地产生相同的虚构包。
正如安全公司 Socket 最近指出的,去年研究这个问题的学术研究人员发现,将同一个触发幻觉的提示重复运行 10 次,43% 的虚构包每次都会重复出现,而 39% 则再也不会出现。
利用虚构的包名是一种仿冒攻击,攻击者使用常见术语的变体或拼写错误来欺骗用户。Python 软件基金会的安全开发人员 Seth Michael Larson 将其称为"slopsquatting"(混乱仿冒)- "slop" 是对 AI 模型输出的贬义说法。
专家建议用户在使用 AI 生成的代码、包和信息之前,应该对其进行双重检查。组织可以在内部镜像 PyPI 的子集,以更好地控制开发人员可用的包。
好文章,需要你的鼓励
Plaud在CES上推出两款AI笔记新品。NotePin S延续简约设计,可作为手环、项链或胸针使用,新增即时高亮按钮功能,售价179美元。同时发布的Plaud Desktop可录制在线会议,支持Zoom、Google Meet等平台,采用原生录制方式而非机器人参会。两款产品均可通过Plaud生态系统统一管理录音内容。
ByteDance等机构联合提出DLCM模型,通过学习语义边界动态分配计算资源,将AI从统一令牌处理转向层次化概念推理。该模型引入压缩感知缩放定律,在12项零样本测试中平均提升2.69%准确率,为构建更智能高效的AI系统开辟新路径。
Instagram负责人亚当·莫塞里发布深度分析,指出我们正进入"无限合成内容"新时代,AI生成的照片和视频与真实内容越来越难以区分。他表示,人们需要从默认相信眼见转向保持怀疑态度,关注内容发布者身份和动机。莫塞里认为相机公司发展方向错误,过度追求完美效果。平台需要构建更好的创作工具,标记AI生成内容,验证真实内容,并提供发布者可信度信号。
香港中文大学团队突破AI记忆瓶颈,提出HGMEM超图记忆机制。该技术让AI具备类似人类的联想思维,能将分散信息整合成高阶理解。通过动态记忆演化和智能检索,显著提升了复杂推理能力,在长文本理解任务中全面超越现有方法,为AI向"知识理解者"转变开辟新路径。