6月13日21时,第五届“强网杯”全国网络安全挑战赛线上赛圆满结束。强网精英鏖战36小时,成为本届“强网杯”系列赛事的精彩开局,尽展新时代网络强国的技术实力与风采。线上赛的实力比拼也得到了场外的广泛关注,共有365363人次在线围观,通过“强网杯”实践平台交流安全技术,提升网络安全意识和防护技能。
这场高水准国家级网络安全赛事吸引了社会各界的共同关注,信息工程大学校长郭云飞,河南省委网信办副主任蔡新民,河南省教育厅二级巡视员徐恒振,河南省通信管理局二级巡视员侯剑涛,郑州市人民政府副秘书长王义民,郑州高新技术产业开发区党工委副书记、管委会主任张红军等有关领导和20余位来自一流网络安全学院建设示范高校专家,以及竞赛组织委员会、评审仲裁委员会专家共同出席大赛开幕仪式,见证第五届“强网杯”盛大启动。
硬核赛题激发强网动能
当前,全球数字化转型进程加速,网络空间也随之面临更加复杂多变的安全挑战,促进安全技术交流、创新技术研发、培养高素质网安人才成为推动产业发展的重要课题。作为中央网信办和河南省人民政府联合指导的国家级网络安全竞赛,“强网杯”持续五届广纳精英,不断创新赛制,提升赛题质量,为选手搭建公平公正的全国性技术切磋平台。
本次线上赛采取在线解题(Jeopardy)模式,赛题场景全面覆盖二进制程序逆向分析、Web应用安全、密码分析、智能终端安全、信息隐藏等网络安全领域的主要知识与技能,同时兼顾赛题难度与实践热点,让选手在酣畅淋漓的比拼中,提高新时代、新技术背景下应对更多未知安全风险威胁的应急处置能力和防御水平。
36小时线上鏖战越巅峰
本届“强网杯”共吸引了来自全国31个省级行政区(港澳台除外)的3156支战队、20207人报名参赛。开赛首日,网安精英们就展开了激烈角逐,仅66分钟,来自暨南大学的Xp0int战队率先解出pop_master题目,斩获全场第一滴血!比赛进行2小时,已有5078名选手完成签到,1035支战队成功得分,4道赛题被攻克。截止当日19点,大赛共放出23道赛题,攻克进度78%,Misc、Reverse类题目均已被成功挑战,剩余5道高难度赛题悬而未决。
时间分秒流逝,场内战况瞬息万变,在距离比赛结束还有近90分钟时,eee战队与0x300R战队等都展现出网安精英的硬核“战斗力”,上演了一场你追我赶、悬念迭起的冠军争夺战,将竞赛气氛推向高潮。最终0x300R战队成功卫冕本次线上赛第一名,eee战队以微弱的134分差距获得第二名。0ops战队、AAA战队、NeSE战队分别位列第三、四、五名。本次比赛共上线43道高质量赛题,93%被攻克,flag累计提交22589次,第一名的宝座历经14次更迭。
比赛实时战况
Top 10 队伍比赛态势
Top 10 积分总榜
接下来,大赛组委会将结合参赛选手的WriteUp进行最终成绩确认,晋级名单将于近期通过大赛官网及微信公众号正式对外公布。
严正捍卫比赛公平公正
众所周知,公平公正的比赛是训练、选拔真正有用之才的前提与基础,大赛裁判组和组委会对任何破坏比赛公平性行为零容忍。为此,比赛全面部署了专业的反作弊平台,对大赛全程护航。比赛过程中,经过反作弊平台和导调裁评人员检查分析,对8支违反了比赛纪律的队伍进行了禁赛处置。
“强网杯”系列活动蓄势待发
线上赛的成功举办,拉开了第五届“强网杯”一赛、一会、一展系列活动的序幕,成功晋级的32支精英战队将于7月10日-11日,在线下赛的舞台上角逐冠军宝座和百万奖金。期间还将同步组织开展强网论坛、网络安全先进技术成果展、“强网初心”红色故事汇、强网科普等系列活动,多维度大规模促进全民科学普及、开展群众性“四史”教育活动,向建党百年献礼。
接下来,作为“强网杯”品牌的系列赛事,精英赛、人工智能挑战赛和青少年专项赛也将相继启动,全面助力人才培养、技术创新、产业发展的良性生态构建。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。