未来,只有AI驱动的企业与其他企业。
然而随着AI技术的不断渗透,企业就需要在基础设施、数据和应用程序的三层架构中,增加AI这一全新层次,这也产生了如何保证AI应用安全性的新问题。
在网络安全领域,AI对抗AI已成为共识。思科亚太、日本及大中华区总裁Dave West认为,随着世界变化加速,我们必须迅速行动,但不能以牺牲安全为代价追求速度,也不能为了确保安全而牺牲速度。
速度与安全如何兼得?
“模型是非确定性的、动态的,这就会创造出新的风险向量。”思科亚太、日本及大中华区网络销售和解决方案工程副总裁Raymond Janse van Rensburg谈到,当模型崩溃时,可能会发生严重的问题,这就需要对模型和应用程序进行保护。
AI应用面临的风险主要包括Safety(安全)和Security(保障)两大类。Safety涉及模型的“毒性”问题,例如偏差注入,意味着模型未能按预期执行任务或行为;Security则聚焦于保护模型免受外部攻击,如攻击者试图改变模型行为,随着攻击手段不断演变,如何有效保护模型变得愈加复杂。
如今,企业需要一个集成的安全平台,而不是哪里漏了堵哪里的单点解决方案。近期思科发布了思科人工智能防御系统(Cisco AI Defense),帮助企业AI转型过程中,可以在确保安全的同时实现无缝创新。
思科人工智能防御系统(Cisco AI Defense)
思科人工智能防御系统的主要目标是简化AI管理,重点解决两个核心问题,第一,确保AI应用的访问安全:保护用户、员工以及使用应用程序的人员(例如ChatGPT等AI工具用户)的安全;第二,开发与部署安全的AI应用:确保AI应用程序开发者在构建和开发智能体时能够获得必要的安全保障。
思科全球人工智能软件和平台副总裁DJ Sampath强调,思科人工智能防御系统首先可以为员工使用AI应用程序时提供完整的可视化,了解员工使用的未授权和已授权的AI应用;其次,通过实施访问控制策略,限制员工对未授权AI工具的访问;最后,持续防范威胁和数据泄露,确保合规性和机密数据的保护。
同样开发者也需要一套适用于所有应用的AI安全防护措施,思科人工智能防御系统则可以满足AI检测、模型验证、运行时安全。
AI检测:安全团队需要了解构建应用的主体以及其使用的训练源。思科人工智能防御系统能够在公有云和私有云中检测到未授权和已授权的AI应用。
模型验证:模型调整可能导致有害或意外结果。思科人工智能防御系统的自动化测试可检查人工智能模型中数百种潜在的安全问题。这支由人工智能驱动的算法红队能够识别潜在漏洞,并为安全团队推荐思科人工智能防御系统中的防护措施。
运行时安全:持续验证能够防范潜在的安全威胁,如提示注入、拒绝服务和敏感数据泄露等。
与单一AI模型中的安全措施不同,思科人工智能防御系统提供适用于多模型环境的一致性控制。该系统具备自我优化能力,基于思科独有的机器学习模型,并结合Talos威胁情报数据,实时识别和应对不断演变的AI安全挑战。使用思科人工智能防御系统的Splunk客户,将接收到来自整个生态系统的丰富警报。
同时,思科人工智能防御系统能够无缝集成现有的数据流,提供卓越的可视化与控制力,并深度融入思科推出的统一化、由人工智能驱动的跨领域安全平台——思科安全云。
DJ Sampath表示,如果企业只是保护应用程序,5分钟内即可部署AI云可视性解决方案,如果需保护员工,使用思科安全访问解决方案即可轻松实现。无论是使用AI应用还是开发AI应用,思科都能提供无缝的工具支持。
思科一直与合作伙伴在安全领域保持紧密合作,97%的业务来自于合作伙伴。未来,思科将继续与情报合作伙伴协作,进一步增强人工智能防御系统的能力。同时,思科正将所有解决方案整合到“思科安全云”控制台,MSP可以通过该控制台配置和管理所有安全功能,从而提升服务能力。
Dave West最后呼吁,CIO们应认识到人工智能防御、可视性和可观察性是未来成功的基础,这些因素将决定企业在AI时代的竞争力与安全性。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。