6月13日21时,第五届“强网杯”全国网络安全挑战赛线上赛圆满结束。强网精英鏖战36小时,成为本届“强网杯”系列赛事的精彩开局,尽展新时代网络强国的技术实力与风采。线上赛的实力比拼也得到了场外的广泛关注,共有365363人次在线围观,通过“强网杯”实践平台交流安全技术,提升网络安全意识和防护技能。
这场高水准国家级网络安全赛事吸引了社会各界的共同关注,信息工程大学校长郭云飞,河南省委网信办副主任蔡新民,河南省教育厅二级巡视员徐恒振,河南省通信管理局二级巡视员侯剑涛,郑州市人民政府副秘书长王义民,郑州高新技术产业开发区党工委副书记、管委会主任张红军等有关领导和20余位来自一流网络安全学院建设示范高校专家,以及竞赛组织委员会、评审仲裁委员会专家共同出席大赛开幕仪式,见证第五届“强网杯”盛大启动。
硬核赛题激发强网动能
当前,全球数字化转型进程加速,网络空间也随之面临更加复杂多变的安全挑战,促进安全技术交流、创新技术研发、培养高素质网安人才成为推动产业发展的重要课题。作为中央网信办和河南省人民政府联合指导的国家级网络安全竞赛,“强网杯”持续五届广纳精英,不断创新赛制,提升赛题质量,为选手搭建公平公正的全国性技术切磋平台。
本次线上赛采取在线解题(Jeopardy)模式,赛题场景全面覆盖二进制程序逆向分析、Web应用安全、密码分析、智能终端安全、信息隐藏等网络安全领域的主要知识与技能,同时兼顾赛题难度与实践热点,让选手在酣畅淋漓的比拼中,提高新时代、新技术背景下应对更多未知安全风险威胁的应急处置能力和防御水平。
36小时线上鏖战越巅峰
本届“强网杯”共吸引了来自全国31个省级行政区(港澳台除外)的3156支战队、20207人报名参赛。开赛首日,网安精英们就展开了激烈角逐,仅66分钟,来自暨南大学的Xp0int战队率先解出pop_master题目,斩获全场第一滴血!比赛进行2小时,已有5078名选手完成签到,1035支战队成功得分,4道赛题被攻克。截止当日19点,大赛共放出23道赛题,攻克进度78%,Misc、Reverse类题目均已被成功挑战,剩余5道高难度赛题悬而未决。
时间分秒流逝,场内战况瞬息万变,在距离比赛结束还有近90分钟时,eee战队与0x300R战队等都展现出网安精英的硬核“战斗力”,上演了一场你追我赶、悬念迭起的冠军争夺战,将竞赛气氛推向高潮。最终0x300R战队成功卫冕本次线上赛第一名,eee战队以微弱的134分差距获得第二名。0ops战队、AAA战队、NeSE战队分别位列第三、四、五名。本次比赛共上线43道高质量赛题,93%被攻克,flag累计提交22589次,第一名的宝座历经14次更迭。
比赛实时战况
Top 10 队伍比赛态势
Top 10 积分总榜
接下来,大赛组委会将结合参赛选手的WriteUp进行最终成绩确认,晋级名单将于近期通过大赛官网及微信公众号正式对外公布。
严正捍卫比赛公平公正
众所周知,公平公正的比赛是训练、选拔真正有用之才的前提与基础,大赛裁判组和组委会对任何破坏比赛公平性行为零容忍。为此,比赛全面部署了专业的反作弊平台,对大赛全程护航。比赛过程中,经过反作弊平台和导调裁评人员检查分析,对8支违反了比赛纪律的队伍进行了禁赛处置。
“强网杯”系列活动蓄势待发
线上赛的成功举办,拉开了第五届“强网杯”一赛、一会、一展系列活动的序幕,成功晋级的32支精英战队将于7月10日-11日,在线下赛的舞台上角逐冠军宝座和百万奖金。期间还将同步组织开展强网论坛、网络安全先进技术成果展、“强网初心”红色故事汇、强网科普等系列活动,多维度大规模促进全民科学普及、开展群众性“四史”教育活动,向建党百年献礼。
接下来,作为“强网杯”品牌的系列赛事,精英赛、人工智能挑战赛和青少年专项赛也将相继启动,全面助力人才培养、技术创新、产业发展的良性生态构建。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。