AI 正在从好坏两个方面彻底改变网络安全格局
人工智能 (AI) 的变革力量不仅帮助企业发展,也给网络安全领域带来重大变化。从积极的方面来看,AI 正在改善自动化、实时网络威胁识别和分析。企业现在具备了更好、更快的网络防御能力,能够监控系统活动、识别异常情况和发现行为异常的个人。
遗憾的是,利用 AI 提升性能时需要考虑两个方面。在当前的数字环境中,网络犯罪分子也在使用 AI 和机器学习 (ML) 工具来更有效地攻击和利用受害者的网络,这些工具在两个主要领域产生了最大影响。
首先,AI 可用于自动化和加速网络攻击。AI 工具减少了攻击前的侦察、信息收集和分析所需时间。它们还可以指导对受害者 IT 系统的探索和利用;一旦攻击者入侵系统,最终会减少从初始入侵到窃取或破坏信息之间的时间。
其次,AI 被用来创建越来越逼真但虚假的文本、音频甚至视频。以前看似无害的信息,如高管公开采访的视频,现在可以更快地用来制作这些深度伪造内容。深度伪造最明显的用途是使钓鱼攻击更具说服力;但现在它们也被用来支持针对企业的虚假信息活动,例如,通过制造员工说出可能对组织造成重大声誉损害的言论。这个问题的规模正在扩大。2024 年,近一半的全球企业报告了与深度伪造相关的欺诈事件。
如果部署不当,工作场所的 AI 工具也可能造成问题
AI 工具的无意误用也会影响信息安全。自 ChatGPT 等生成式 AI 应用发布以来,员工希望使用这些工具来简化日常工作任务的风险一直存在。但是,将敏感的企业信息输入公共生成式 AI 工具会大大增加意外泄露的风险。这种风险因中国的 DeepSeek 等 AI 工具的出现而加剧。DeepSeek 宽松的隐私政策以及中国的国家安全法律,理论上可能使中国政府能够请求访问与 DeepSeek 相关的信息和查询。
商业领导者在应对 AI 驱动威胁时有四个关键考虑因素:
1. 确保企业领导者的支持
为了应对日益增长的威胁和挑战,企业领导者必须面对 AI 带来的风险,并解决任何防御性差距,以保持商业生存能力。他们必须投入足够的资源来理解 AI 可能如何损害他们的企业,包括它如何被用来创建复杂的虚假信息或钓鱼活动。他们还必须了解敏感的企业数据如何可能通过误用 ChatGPT 等 AI 应用而无意或故意泄露到公共领域。
2. 了解你面临的 AI 驱动网络威胁
任何网络安全承诺都始于对网络漏洞的风险评估。AI 驱动的网络安全工具应该被整合到这些评估中。
AI 可以作为一个工具来帮助识别程序和应用中可能已经存在的代码缺陷、配置错误或恶意软件。应用安全测试应该是评估过程的第一步。
3. 培养具备新兴技术趋势专业知识的自上而下的网络安全文化
AI 已经对安全和商业运营模式产生重大影响。为了充分利用新兴技术,C 级高管应该充分了解其功能,并为安全团队分配足够的资源来获取和整合新的安全工具。
4. 准备应对 AI 驱动的威胁场景
C 级高管还需要定期测试其应对 AI 驱动威胁场景的能力。需要测试的关键要素包括如何处理可能被虚假信息操纵的内部和外部叙述;如何处理深度伪造可能导致的指挥链中断;以及如何回应相关监管机构。
好文章,需要你的鼓励
OpenAI CEO描绘了AI温和变革人类生活的愿景,但现实可能更复杂。AI发展将带来真正收益,但也会造成社会错位。随着AI系统日益影响知识获取和信念形成,共同认知基础面临分裂风险。个性化算法加剧信息茧房,民主对话变得困难。我们需要学会在认知群岛化的新地形中智慧生存,建立基于共同责任而非意识形态纯洁性的社区。
杜克大学等机构研究团队通过三种互补方法分析了大语言模型推理过程,发现存在"思维锚点"现象——某些关键句子对整个推理过程具有决定性影响。研究表明,计划生成和错误检查等高层次句子比具体计算步骤更重要,推理模型还进化出专门的注意力机制来跟踪这些关键节点。该发现为AI可解释性和安全性研究提供了新工具和视角。
传统数据中心基础设施虽然对企业至关重要,但也是预算和房地产的重大负担。模块化数据中心正成为强有力的替代方案,解决企业面临的运营、财务和环境复杂性问题。这种模块化方法在印度日益流行,有助于解决环境问题、满足人工智能的电力需求、降低成本并支持新一代分布式应用。相比传统建设需要数年时间,工厂预制的模块化数据中心基础设施可在数周内部署完成。
法国索邦大学团队开发出智能医学文献管理系统Biomed-Enriched,通过AI自动从PubMed数据库中识别和提取高质量临床案例及教育内容。该系统采用两步注释策略,先用大型AI模型评估40万段落质量,再训练小型模型处理全库1.33亿段落。实验显示该方法仅用三分之一训练数据即可达到传统方法效果,为医学AI发展提供了高效可持续的解决方案。