联邦调查局警告说,黑客正在疯狂地使用像ChatGPT这样的生成式人工智能工具,快速创建恶意代码并发起网络犯罪,这在过去需要付出更多的努力。
联邦调查局在与记者的电话会议上详细说明了这种担忧。并解释说,人工智能聊天机器人助长了各种违法活动:从诈骗者和欺诈者通过ChatGPT完善他们的技术到恐怖分子咨询如何发动更具破坏性的化学攻击工具,各种手段无所不包。
根据联邦调查局高级官员的说法,“我们预计,随着时间的推移,人工智能模型的采用和普及度的提高,这些趋势将增加明显。“他们表示:”违法者正使用人工智能来补充他们的常规犯罪活动,包括使用人工智能语音生成器冒充受信任的人,以欺骗被害者亲人或老人。“
这不是我们第一次看到黑客使用ChatGPT等工具并扭曲它们来创建危险的恶意软件。2023年2月,安全公司 Checkpoint 的研究人员发现,恶意行为者已经能够更改聊天机器人的 API,使其能够生成恶意软件代码,并使病毒创建让任何潜在的黑客都能触手可及。
ChatGPT 是安全威胁吗?
联邦调查局的立场与2023年五月采访的一些网络专家的态度截然不同。这些网络专家告诉我们,人工智能聊天机器人的威胁在很大程度上被夸大了,大多数黑客从更传统的数据泄漏和开源研究中发现了更易于攻击的代码漏洞。
例如,Bitdefender的技术解决方案总监Martin Zugec解释说,“大多数恶意软件编写新手不太可能具备绕过聊天机器人反恶意护栏所需的技能”。除此之外,Zugec解释说,“聊天机器人产生的恶意软件代码的质量往往很低。”
这为联邦调查局的说法提供了一个反驳,我们必须进一步观察以证实哪一方是正确的。随着ChatGPT制造商OpenAI停止使用自己的工具来检测聊天机器人产生的抄袭这一现象来看,其后果并不令人鼓舞。如果联邦调查局是对的,那么在与黑客及其对聊天机器人驱动的恶意软件的斗争中,我们可能会更加艰难。
好文章,需要你的鼓励
Meta 正研发一项通过姓名识别人脸并追踪用户日常活动的“超级感知”技术,计划应用于新款智能眼镜和 AI 耳机,同时重新评估隐私策略,助推 AI 技术在穿戴产品中的应用。
Google 在 Gemini API 中推出自动缓存功能,通过复用重复数据为开发者节省最多 75% 的调用成本,有望缓解高额 API 费用问题。
Korl 利用 OpenAI、Gemini 及 Anthropic 等模型,从 Salesforce、Jira、Google Docs 等多个平台整合数据,自动生成定制化客户沟通材料,如幻灯片、演讲稿及季度业务回顾,同时保证数据安全性,并提升运营效率。
文章探讨了代理型 AI 的崛起,重点介绍微软 Azure AI Foundry 与 NVIDIA 技术如何通过强大语言模型和智能代理,实现企业级应用创新,提升运营效率与服务质量。