AI 驱动的代码生成工具正在重塑开发者编写软件的方式,但同时也给软件供应链带来了新的风险。
与大语言模型类似,AI 编程助手也存在幻觉问题。它们会推荐包含不存在软件包的代码。
去年 3 月和 9 月,安全和学术研究人员发现 AI 代码助手会虚构包名。最近的一项研究表明,商业模型约 5.2% 的包建议是不存在的,而开源模型则高达 21.7%。
运行这些代码时,导入不存在的包应该会报错。但不法分子已经意识到可以利用这种幻觉来谋取私利。
他们只需要用虚构的包名创建恶意软件包,然后将其上传到 PyPI 或 npm 等包注册表进行分发。此后,当 AI 代码助手再次产生相同的幻觉时,安装依赖和执行代码的过程就会运行这些恶意软件。
这种重复出现似乎呈双峰模式 - 当重新运行提示时,一些虚构的包名会反复出现,而其他则完全消失 - 这表明某些提示会可靠地产生相同的虚构包。
正如安全公司 Socket 最近指出的,去年研究这个问题的学术研究人员发现,将同一个触发幻觉的提示重复运行 10 次,43% 的虚构包每次都会重复出现,而 39% 则再也不会出现。
利用虚构的包名是一种仿冒攻击,攻击者使用常见术语的变体或拼写错误来欺骗用户。Python 软件基金会的安全开发人员 Seth Michael Larson 将其称为"slopsquatting"(混乱仿冒)- "slop" 是对 AI 模型输出的贬义说法。
专家建议用户在使用 AI 生成的代码、包和信息之前,应该对其进行双重检查。组织可以在内部镜像 PyPI 的子集,以更好地控制开发人员可用的包。
好文章,需要你的鼓励
"当我看到梵高的每一笔中都有他的痛苦时,才明白我们看的不是作品,而是作者的人生。AI正以惊人的速度接近人类水平通用智能,让Google从'伦敦那帮疯子在搞AGI'转变为全公司共识。DeepMind让AI'合理地幻觉'来创造突破,就像Astra技术让用户第一次惊呼'AI能做到比想象更多'——这不仅是技术革命,更是重新定义创造力的开始。"
微软研究院前不久发布了一篇论文,揭示了一个反常识的现象:当我们和AI进行长时间多轮对话时,它们会变得越来越"糊涂",给出的答案质量也会明显下降。微软研究院的这项研究,用严谨的科学方法证实了这个现象的存在,这不是个别模型的问题,而是几乎所有大模型的通病。研究团队测试了包括GPT-4、Claude、Gemini在内的15个主流AI模型,发现它们在多轮对话中的表现平均下降了39%。
英伟达2025Q1营收440亿美元创纪录,数据中心业务暴涨73%至390亿美元。黄仁勋直言:"中国是全球最大AI市场,出口管制只会让美国失去平台领导权。Blackwell架构推动推理性能提升30倍,微软已部署数万块GPU,AI工厂正成为各国数字基础设施核心。"
KAIST研究团队开发了CLEANMOL框架,解决了大语言模型理解SMILES分子表示法的关键难题。传统模型即使在简单任务如计数分子环数时也表现不佳,因为SMILES编码中结构信息常呈非连续分布。研究通过设计官能团匹配、环计数等确定性任务,大大提升了模型对分子结构的理解。实验表明,预训练后的模型在逆合成等下游任务上表现优异,精确匹配率从45.6%提升至58.1%。这一突破无需昂贵实验数据,为药物开发和材料设计提供了低成本高效的AI支持方案。