联邦调查局警告说,黑客正在疯狂地使用像ChatGPT这样的生成式人工智能工具,快速创建恶意代码并发起网络犯罪,这在过去需要付出更多的努力。
联邦调查局在与记者的电话会议上详细说明了这种担忧。并解释说,人工智能聊天机器人助长了各种违法活动:从诈骗者和欺诈者通过ChatGPT完善他们的技术到恐怖分子咨询如何发动更具破坏性的化学攻击工具,各种手段无所不包。

根据联邦调查局高级官员的说法,“我们预计,随着时间的推移,人工智能模型的采用和普及度的提高,这些趋势将增加明显。“他们表示:”违法者正使用人工智能来补充他们的常规犯罪活动,包括使用人工智能语音生成器冒充受信任的人,以欺骗被害者亲人或老人。“
这不是我们第一次看到黑客使用ChatGPT等工具并扭曲它们来创建危险的恶意软件。2023年2月,安全公司 Checkpoint 的研究人员发现,恶意行为者已经能够更改聊天机器人的 API,使其能够生成恶意软件代码,并使病毒创建让任何潜在的黑客都能触手可及。
ChatGPT 是安全威胁吗?
联邦调查局的立场与2023年五月采访的一些网络专家的态度截然不同。这些网络专家告诉我们,人工智能聊天机器人的威胁在很大程度上被夸大了,大多数黑客从更传统的数据泄漏和开源研究中发现了更易于攻击的代码漏洞。
例如,Bitdefender的技术解决方案总监Martin Zugec解释说,“大多数恶意软件编写新手不太可能具备绕过聊天机器人反恶意护栏所需的技能”。除此之外,Zugec解释说,“聊天机器人产生的恶意软件代码的质量往往很低。”
这为联邦调查局的说法提供了一个反驳,我们必须进一步观察以证实哪一方是正确的。随着ChatGPT制造商OpenAI停止使用自己的工具来检测聊天机器人产生的抄袭这一现象来看,其后果并不令人鼓舞。如果联邦调查局是对的,那么在与黑客及其对聊天机器人驱动的恶意软件的斗争中,我们可能会更加艰难。
好文章,需要你的鼓励
国际能源署发布的2025年世界能源展望报告显示,全球AI竞赛推动创纪录的石油、天然气、煤炭和核能消耗,加剧地缘政治紧张局势和气候危机。数据中心用电量预计到2035年将增长三倍,全球数据中心投资预计2025年达5800亿美元,超过全球石油供应投资的5400亿美元。报告呼吁采取新方法实现2050年净零排放目标。
维吉尼亚理工学院研究团队对58个大语言模型在单细胞生物学领域的应用进行了全面调查,将模型分为基础、文本桥接、空间多模态、表观遗传和智能代理五大类,涵盖细胞注释、轨迹预测、药物反应等八项核心任务。研究基于40多个公开数据集,建立了包含生物学理解、可解释性等十个维度的评估体系,为这个快速发展的交叉领域提供了首个系统性分析框架。
AMD首席执行官苏姿丰在纽约金融分析师日活动中表示,公司已准备好迎接AI浪潮并获得传统企业计算市场更多份额。AMD预计未来3-5年数据中心AI收入复合年增长率将超过80%,服务器CPU收入份额超过50%。公司2025年预期收入约340亿美元,其中数据中心业务160亿美元。MI400系列GPU采用2纳米工艺,Helios机架系统将提供强劲算力支持。
西湖大学王欢教授团队联合国际研究机构,针对AI推理模型内存消耗过大的问题,开发了RLKV技术框架。该技术通过强化学习识别推理模型中的关键"推理头",实现20-50%的内存缩减同时保持推理性能。研究发现推理头与检索头功能不同,前者负责维持逻辑连贯性。实验验证了技术在多个数学推理和编程任务中的有效性,为推理模型的大规模应用提供了现实可行的解决方案。