联邦调查局警告说,黑客正在疯狂地使用像ChatGPT这样的生成式人工智能工具,快速创建恶意代码并发起网络犯罪,这在过去需要付出更多的努力。
联邦调查局在与记者的电话会议上详细说明了这种担忧。并解释说,人工智能聊天机器人助长了各种违法活动:从诈骗者和欺诈者通过ChatGPT完善他们的技术到恐怖分子咨询如何发动更具破坏性的化学攻击工具,各种手段无所不包。
根据联邦调查局高级官员的说法,“我们预计,随着时间的推移,人工智能模型的采用和普及度的提高,这些趋势将增加明显。“他们表示:”违法者正使用人工智能来补充他们的常规犯罪活动,包括使用人工智能语音生成器冒充受信任的人,以欺骗被害者亲人或老人。“
这不是我们第一次看到黑客使用ChatGPT等工具并扭曲它们来创建危险的恶意软件。2023年2月,安全公司 Checkpoint 的研究人员发现,恶意行为者已经能够更改聊天机器人的 API,使其能够生成恶意软件代码,并使病毒创建让任何潜在的黑客都能触手可及。
ChatGPT 是安全威胁吗?
联邦调查局的立场与2023年五月采访的一些网络专家的态度截然不同。这些网络专家告诉我们,人工智能聊天机器人的威胁在很大程度上被夸大了,大多数黑客从更传统的数据泄漏和开源研究中发现了更易于攻击的代码漏洞。
例如,Bitdefender的技术解决方案总监Martin Zugec解释说,“大多数恶意软件编写新手不太可能具备绕过聊天机器人反恶意护栏所需的技能”。除此之外,Zugec解释说,“聊天机器人产生的恶意软件代码的质量往往很低。”
这为联邦调查局的说法提供了一个反驳,我们必须进一步观察以证实哪一方是正确的。随着ChatGPT制造商OpenAI停止使用自己的工具来检测聊天机器人产生的抄袭这一现象来看,其后果并不令人鼓舞。如果联邦调查局是对的,那么在与黑客及其对聊天机器人驱动的恶意软件的斗争中,我们可能会更加艰难。
好文章,需要你的鼓励
Xbox 部门推出了名为 Muse 的生成式 AI 模型,旨在为游戏创造视觉效果和玩法。这一举措反映了微软全面拥抱 AI 技术的战略,尽管游戏开发者对 AI 持谨慎态度。Muse 不仅可能提高游戏开发效率,还有望实现老游戏的现代化改造,但其实际效果和对行业的影响仍有待观察。
Sonar收购AutoCodeRover,旨在通过自主AI代理增强其代码质量工具。这项收购将使Sonar客户能够自动化调试和问题修复等任务,让开发者将更多时间用于改进应用程序而非修复bug。AutoCodeRover的AI代理能够自主修复有问题的代码,将与Sonar的工具集成,提高开发效率并降低成本。
人工智能正在推动数据中心的变革。为满足 AI workload 的需求,数据中心面临前所未有的电力消耗增长、散热压力和设备重量挑战。应对这些挑战需要创新的解决方案,包括 AI 专用硬件、可再生能源、液冷技术等。同时,数据中心还需平衡监管压力和社区关切。未来数据中心的发展将决定 AI 技术能否实现其变革性潜力。