该项新调查还显示,消费者仍高估了自己识别深度伪造的能力,并希望政府采取更多措施来监管人工智能
美国加利福尼亚州森尼韦尔 — 2024 年 5 月 14 日 — 领先的自动化、人工智能驱动的身份验证、风险评估和合规解决方案提供商Jumio今天发布了“Jumio 2024 在线身份研究报告”,这是其年度全球消费者调研的第三部分。今年的调研结论显示出消费者对生成式人工智能和深度伪造相关风险的极大担忧,包括网络犯罪和身份欺诈增加的可能性。
该研究调查了来自英国、美国、新加坡和墨西哥的8,000多名成年消费者的观点。研究结果表明,近四分之三的消费者(72%)每天都担心被深度伪造欺骗,从而泄露敏感信息或被骗金钱。只有15%的全球消费者(新加坡只有7%)表示他们从未遇到过深度伪造的视频、音频或图像。
尽管人们对这种日益兴起且不断发展的技术感到高度焦虑,但消费者仍然高估了自己识别深度伪造的能力,60%的受访者相信他们可以检测到深度伪造,这一比例高于2023年的52%。在新加坡,这一数字高达77%。在全球范围内,男性受访者对自己识别深度伪造的能力更有信心(男性占66%,女性占55%),其中18-34岁的男性受访者表现出最强的信心(75%),而35-54岁的女性受访者最不自信(52%)。
Jumio首席技术官Stuart Wells表示:“随着生成式人工智能技术的进步,深度伪造的发生频率持续上升,这表明我们检测这些欺骗行为的整体能力还存在巨大差距。这种持续的过度自信更反映出加强公共教育和使用更有效的技术解决方案的必要性。企业和消费者必须合作强化数字安全措施,以有效防止身份欺诈。”
绝大多数(60%)的消费者呼吁政府加强对人工智能的监管以应对这些问题。然而,对政府监管的信任程度在全球各地各不相同,69%的新加坡人表示相信政府监管人工智能的能力,而英国仅为26%,美国为31%,墨西哥为44%。
网络欺诈的真实成本
欺诈是全球很多消费者都十分熟悉的问题,68%的受访者表示,他们遭受过或怀疑自己曾经遭受网络欺诈或身份盗窃,或者他们认识受到过欺诈的人。美国消费者最有可能直接成为欺诈的受害者(39%),无论是明知还是怀疑,而新加坡是报告认识受害者最多的国家(51%)。
在遭受或怀疑遭受网络欺诈或身份盗窃的消费者中,近一半(46%)的人表示这种经历只是带来了轻微的不便,但是32%的人表示这种经历造成了严重的问题,需要花费数小时的操作才能解决,14%的人甚至称之为一次痛苦的经历。
无论是否成为欺诈或身份盗窃的受害者,大多数消费者每天都担心成为数据泄露(79%)和账户接管攻击(77%)的受害者。
平衡身份验证的安全性和用户体验
对于希望保护自身安全并确保用户真实性的公司来说,身份验证是解决方案的关键部分。超过80%的新加坡消费者表示,如果这些措施能够提高金融服务(85%)、共享经济 (85%)、医疗健康(85%)、政府事务(84%)、旅游和酒店(84%)、零售和电子商务(83%)、社交媒体(82%)和电信(82%)等行业的安全性,他们愿意花更多时间进行身份验证。
在创建新的在线帐户时,全球消费者表示,拍摄身份证件照片和实时自拍照将是最准确的身份验证方式(21%),创建安全密码次之(19%)。
Jumio数字身份主管 Philipp Pointner表示: “在我们应对生成式人工智能带来的复杂性时,复杂的安全系统的作用变得至关重要。为了应对深度伪造和网络欺骗的兴起,采用基于生物特征的多模态验证系统势在必行。这些技术是确保企业能够保护其平台和客户免受新兴网络威胁的关键,并且比密码和其他传统的、过时的识别和身份验证方法要强大得多。”
点击查看更多数据和见解:https://www.jumio.com/2024-identity-study。
这项调查由Censuswide进行,参与调研的8,077名消费者平均分布在英国、美国、新加坡和墨西哥。实地调查于2024年3月25日至4月2日进行。Censuswide遵守并聘用了市场研究协会的成员,并遵循基于ESOMAR原则的MRS行为准则,同时他们也是英国民意调查委员会的成员。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。