联邦调查局警告说,黑客正在疯狂地使用像ChatGPT这样的生成式人工智能工具,快速创建恶意代码并发起网络犯罪,这在过去需要付出更多的努力。
联邦调查局在与记者的电话会议上详细说明了这种担忧。并解释说,人工智能聊天机器人助长了各种违法活动:从诈骗者和欺诈者通过ChatGPT完善他们的技术到恐怖分子咨询如何发动更具破坏性的化学攻击工具,各种手段无所不包。

根据联邦调查局高级官员的说法,“我们预计,随着时间的推移,人工智能模型的采用和普及度的提高,这些趋势将增加明显。“他们表示:”违法者正使用人工智能来补充他们的常规犯罪活动,包括使用人工智能语音生成器冒充受信任的人,以欺骗被害者亲人或老人。“
这不是我们第一次看到黑客使用ChatGPT等工具并扭曲它们来创建危险的恶意软件。2023年2月,安全公司 Checkpoint 的研究人员发现,恶意行为者已经能够更改聊天机器人的 API,使其能够生成恶意软件代码,并使病毒创建让任何潜在的黑客都能触手可及。
ChatGPT 是安全威胁吗?
联邦调查局的立场与2023年五月采访的一些网络专家的态度截然不同。这些网络专家告诉我们,人工智能聊天机器人的威胁在很大程度上被夸大了,大多数黑客从更传统的数据泄漏和开源研究中发现了更易于攻击的代码漏洞。
例如,Bitdefender的技术解决方案总监Martin Zugec解释说,“大多数恶意软件编写新手不太可能具备绕过聊天机器人反恶意护栏所需的技能”。除此之外,Zugec解释说,“聊天机器人产生的恶意软件代码的质量往往很低。”
这为联邦调查局的说法提供了一个反驳,我们必须进一步观察以证实哪一方是正确的。随着ChatGPT制造商OpenAI停止使用自己的工具来检测聊天机器人产生的抄袭这一现象来看,其后果并不令人鼓舞。如果联邦调查局是对的,那么在与黑客及其对聊天机器人驱动的恶意软件的斗争中,我们可能会更加艰难。
好文章,需要你的鼓励
在CES 2025上,英伟达发布了Alpamayo开源AI模型家族,包含模拟工具和数据集,用于训练物理机器人和车辆。核心产品Alpamayo 1是一个100亿参数的视觉语言行动模型,能让自动驾驶汽车像人类一样思考,解决复杂边缘案例。该模型通过分解问题、推理各种可能性来选择最安全路径,并能解释其驾驶决策。英伟达还发布了包含1700小时驾驶数据的开放数据集和AlpaSim开源模拟框架。
SimWorld是由UCSD等多所顶尖院校联合开发的革命性AI仿真平台,基于虚幻引擎5构建了具备真实物理规律的虚拟城市环境。该平台支持无限扩展的程序化世界生成和自然语言交互,让AI智能体能够在复杂环境中学会生存、合作和竞争,为通用人工智能的发展提供了前所未有的训练平台。
HPE旗下Unix系统HP-UX 11i v3最终版本已于去年底结束支持,标志着这一始于1982年的操作系统产品线正式终结。该系统经历了从HP FOCUS处理器到摩托罗拉68000,再到PA-RISC架构的演进历程。最后几个版本仅支持英特尔安腾处理器,随着2021年安腾处理器停产,HP-UX失去硬件支撑而走向终结。
浙江大学联合华为提出C2DLM,这是一种因果概念引导的扩散语言模型,通过自动提取因果关系并融入注意力机制来增强AI推理能力。相比传统方法,C2DLM在推理任务上平均提升1.31%-12%,训练效率提高3.2倍,为解决语言模型推理能力不足开辟了新路径。