2024年3月,多位 YouTube 内容创作者似乎收到了来自平台 CEO Neal Mohan 的私人视频。然而事实证明,视频中的并非 Mohan 本人,而是诈骗者制作的 AI 生成版本,目的是窃取凭证并安装恶意软件。这让人想起最近其他备受关注的 AI 诈骗案例。去年,诈骗者利用 AI 模仿拜登总统的声音,通过自动电话呼叫劝说人们不要参加初选投票。
这类深度伪造(视频和音频)的案例在新闻中频繁出现。非营利组织消费者报告评测了六款语音克隆应用,发现其中四款应用没有有效的防护措施来阻止用户在未经同意的情况下克隆他人声音。
高管往往是公司的公众形象和发言人,CEO、CIO 和其他 C 级高管的音视频资料在网上随处可见。对此,CIO 和其他企业技术领导者应该对语音克隆和其他深度伪造技术有多担忧?
缺乏防护措施
据消费者报告评测,ElevenLabs、Lovo、PlayHT 和 Speechify 这四款应用仅要求用户勾选确认框,表明他们拥有使用语音克隆功能的合法权利。而 Descript 和 Resemble AI 在同意机制上更进一步,要求用户阅读并录制同意声明。
防止这些应用被滥用的门槛相当低。即使是需要用户阅读声明的应用,也可能被其他平台上未经授权的语音克隆音频所操纵。
用户不仅可以使用许多现成的应用来未经授权地克隆他人声音,而且无需技术背景。Reality Defender 公司联合创始人兼 CEO Ben Colman 表示:"不需要计算机背景,不需要硕士学位,不需要编程,只要在手机应用商店或 Google 搜索'语音克隆'或'深度伪造人脸生成器',就能找到数千种可供诈骗者使用的工具。"
Colman 还指出,计算成本在过去几个月内大幅下降。"一年前还需要云计算,现在用普通笔记本电脑或手机就能完成。"
防范欺诈
防范语音克隆最明显的前线防御是限制分享个人数据,如声纹。但对于企业领导者来说,这是一个挑战。"他们不应该分享个人数据、声音或面部信息,但对 CEO 来说这很困难。比如我就经常出现在 YouTube 和新闻中,这是经营业务的必要成本,"Colman 说。
CIO 必须在数字世界的现实中运作,知道企业领导者的公开音频资料可能被诈骗者用来克隆声音并用于不法目的。
BairesDev 的 CTO Justice Erolin 说:"AI 语音克隆不是未来的风险,而是当前就存在的威胁。我建议像对待其他网络威胁一样处理:采用强大的身份认证。"仅依靠语音认证是有风险的,采用多因素认证可以降低这种风险。
检测的前景
检测是对抗语音克隆的重要工具。Colman 将深度伪造检测工具的发展比作防病毒扫描的发展历程。他预计在未来一年内,检测功能将完全迁移到设备端。检测工具可以集成到手机、电脑和视频会议平台中,以检测音频和视频是否被 AI 生成或篡改。
就像任何其他网络安全问题一样,威胁行为者的深度伪造能力与防御者的检测能力之间将会展开拉锯战。CIO 和其他安全领导者将面临实施安全防护措施并评估这些能力以对抗诈骗者的挑战。
好文章,需要你的鼓励
Docker公司通过增强的compose框架和新基础设施工具,将自己定位为AI智能体开发的核心编排平台。该平台在compose规范中新增"models"元素,允许开发者在同一YAML文件中定义AI智能体、大语言模型和工具。支持LangGraph、CrewAI等多个AI框架,提供Docker Offload服务访问NVIDIA L4 GPU,并与谷歌云、微软Azure建立合作。通过MCP网关提供企业级安全隔离,解决了企业AI项目从概念验证到生产部署的断层问题。
中科院联合字节跳动开发全新AI评测基准TreeBench,揭示当前最先进模型在复杂视觉推理上的重大缺陷。即使OpenAI o3也仅获得54.87%分数。研究团队同时提出TreeVGR训练方法,通过要求AI同时给出答案和精确定位,实现真正可追溯的视觉推理,为构建更透明可信的AI系统开辟新路径。
马斯克的AI女友"Ani"引爆全球,腾讯RLVER框架突破情感理解边界:AI下半场竞争核心已转向对人性的精准把握。当技术学会共情,虚拟陪伴不再停留于脚本应答,而是通过"心与心的循环"真正理解人类孤独——这背后是强化学习算法与思考模式的化学反应,让AI从解决问题转向拥抱情感。
PyVision是上海AI实验室开发的革命性视觉推理框架,让AI系统能够根据具体问题动态创造Python工具,而非依赖预设工具集。通过多轮交互机制,PyVision在多项基准测试中实现显著性能提升,其中在符号视觉任务上提升达31.1%。该框架展现了从"工具使用者"到"工具创造者"的AI能力跃迁,为通用人工智能的发展开辟了新路径。