3月11日,十三届全国人大四次会议表决通过了关于国民经济和社会发展第十四个五年规划和2035年远景目标纲要的决议。在“十四五”规划中针对加强网络安全保护提出要“加强网络安全关键技术研发,加快人工智能安全技术创新,提升网络安全产业综合竞争力。”
发展人工智能安全技术已成为应对未来网络安全威胁的重要方向。随着网络攻击的数量和复杂性不断增加,传统人+设备的网络安全防御手段在面对海量威胁挑战时开始显得捉襟见肘,基于人工智能的安全技术正在帮助资源不足的安全运营人员即时洞察威胁,加快响应速度。
提升网络安全的技术能力是国家在数字化发展进程中的重要目标。国家将坚定不移的突破网络安全核心技术,并且将衔接人工智能为代表的前沿先进技术的发展优势,引领网络安全技术的发展趋势。而这需要“加强网络安全宣传教育和人才培养”,人才是驱动技术发展的动力,也是带动行业发展的关键。
网络安全竞赛是人工智能在安全领域探索实践的重要平台
美国DARPA是2013年开始筹备CGC比赛,2016年的时候CGC向世界证明了人工智能是有可能与网络安全结合在一起的,人工智能在漏洞挖掘与网络安全的应用具有很大的想象空间。
2017年,国内网络安全厂商永信至诚推出了RHG(Robo Hacking Game)智能靶场平台,这是专注为人与机器,乃至人工智能在网络安全攻防领域创新、前沿及应用的科研、效能验证基础设施,也是集人工智能的大数据集合训练场为一体的智能靶场平台。
自2017年发布以来,该平台已经成为国内各界乃至国际对于人工智能网络安全攻防赛事的简称,并于2019年登上DEF CON CTF的中国外卡赛。如今RHG不但是一个智能靶场竞赛平台的简称,也和CTF一样成为一种竞赛模式的简称,培养出数十个有前沿研究和实践应用能力的战队,协助孕育出了人工智能堆溢出漏洞的分析及利用等国际领先的先进技术,并吸引了越来越多的科研单位、大型企业及院校积极投入到RHG智能对抗研究中来。
RHG在人工智能网络安全领域的最新实践
在刚刚3月份结束的“纵横杯”网络安全竞赛上,特别设置了RHG人工智能攻防赛道,方滨兴院士莅临竞赛现场并表示,竞赛开创了全新的网络安全竞赛机制,为今后举办更高规格、更大规模的竞赛积累了宝贵的经验。
RHG竞赛不但考验了参赛战队在人工智能漏洞挖掘方面的能力,以应对未来更加智能化、自动化的网络威胁。同时,也有效得检验了自动化工具在应对错综复杂的网络安全威胁时的有效性与实用性,进一步促进人工智能、自动化技术在实际业务中的应用和迭代进步。
“纵横杯”最后还进行了一场3V3人机对抗赛,这也是网络安全行业首次在同一个场景里进行人机对战。人类和AI机器人均展现出了很高的效率,人类战队在速度与成果上占据上风, AI机器人在面对同类问题时也达到了能与部分人类战队共同输出的能力。在自动化乃至智能化的路上,AI机器人已经展示出了一定的优势和潜力。
永信至诚CTO张凯表示,“RHG系列赛事见证了大量人工智能高层次网络安全人才的涌现、人工智能重大技术突破的爆发,无疑我们可以预见,面对未来的网络威胁,人工智能将先人一步。”
人工智能网络安全竞赛远不止于此
人工智能网络安全竞赛远不止于此,网络安全竞赛智能探索的脚步也刚刚起步。永信至诚春秋GAME负责人傲客展望到,人工智能网络安全是一个新兴的技术方向,需要各方的力量集结来共同推动,而RHG人工智能网络安全竞赛也将继续迭代,创造更有价值的人工智能竞赛模式,为人工智能网络安全人才的成长积聚力量,推动我国人工智能网络安全技术领域的快速发展。
据了解,在这次“纵横杯”网络安全竞赛期间,由永信至诚春秋GAME发起,信息安全重点实验室,行业专家以及来自不同领域的参赛选手还共同召开了RHG论坛第一次圆桌会议。众人就RHG的场景设计、考核方向以及RHG赛事未来重点等话题进行了交流。通过本次会议,成立RHG论坛的事情也提上了日程,这将吸引更多的行业专家、研究机构加入RHG论坛专委会,共同制定规则、推广赛制进化。同时,会议还倡导构建RHG开放社区,为人工智能网络安全技术的行业研究持续的提供在线训练、测试和交流的平台。
现阶段,国内已经有科研单位和企业中的研究团队在人工智能攻防领域进行了大量研究工作。我们期待RHG能够成为凝聚力量的平台,形成探索人工智能安全技术的产业社群,吸引更多的机构和团队加入到人工智能攻防研究领域中来。同时,通过竞赛不断的挖掘人才,为未来五年网络空间安全储备智能化力量。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
微软亚洲研究院开发出革命性的认知启发学习框架,让AI能够像人类一样思考和学习。该技术通过模仿人类的注意力分配、记忆整合和类比推理等认知机制,使AI在面对新情况时能快速适应,无需大量数据重新训练。实验显示这种AI在图像识别、语言理解和决策制定方面表现卓越,为教育、医疗、商业等领域的智能化应用开辟了新前景。