蓝牙耳机,被利用成为具有定位功能的追踪器;酒店的送餐机器人,被远程操控移动和送餐;用来救命的智能医疗器械,摇身一变成为了威胁生命安全的工具……这一系列场景,都在过去的2021年GeekPwn国际安全极客大赛上演。
每年的10月24日,全球顶尖的白帽黑客都会汇聚到GeekPwn的舞台之上,展示他们在数字世界中发现的安全风险,为世界敲响信息安全的警钟。
2022年GeekPwn国际安全极客大赛全球招募在今天正式开启。即日起,有意参与GeekPwn 2022的极客,可于6月24日前通过GeekPwn官网提交参赛意向,并于8月24日前补充提交参赛项目的详细信息,共同角逐G-TOP年度极客榜。
作为顶尖极客同场竞技的舞台,GeekPwn自2014年举办以来,已经成功吸引了上千名顶尖安全极客的参加,为网络安全行业挖掘和培养了众多高水平安全人才。大赛本身也成为了参赛选手展示自我、提升行业知名度以及技术影响力的绝佳舞台。
随着时代的发展,大赛组委会也在不断创新比赛形式,为参赛选手赢得更高的关注度。去年大赛首次启用《我是极客》线上节目+线下盛典相结合的方式举行,取得了良好效果。利用课外时间攻克儿童智能手表丢失找回难题的十岁少年极客;破解智能机顶盒缺陷,远程偷袭电视屏幕的“独行女侠”,都引起了人们广泛的讨论。在极棒之夜玄武实验室选手将蓝牙耳机变身追踪器,更是登上了微博热搜榜第3位。
GeekPwn 2022,赛制将进一步升级,除了通过紧张的比赛,展现选手的研究成果之外,组委会将通过《我是极客》系列纪录片,将安全极客们日常工作、技术研究过程中的点滴故事呈现给观众,更加立体化的展示极客个人风采,挖掘数字世界的“安全偶像”。
另外,大赛也将继续邀请业内顶级安全专家担任评委,从技术难度,产业影响力等维度对选手的参赛项目做出客观公正的评价,让每一个极客的研究成果都能得到专业建议与认可。优胜选手将登上2022年GeekPwn G-TOP年度极客榜,最高可获高达30万的奖金。
从赛制上,秉承“无所不Pwn”的探索精神,为广泛吸纳前沿安全成果,本届大赛对参赛项目同样不设主题、不限范围,所有与网络安全研究相关,或者能够展现前沿技术与“极客力”的项目都可报名角逐G-TOP 2022 年度极客榜!
例如,在去年的比赛中,有选手通过蓝牙侵入胰岛素泵的控制器,修改了原有的注射设置,用几秒钟就将加大注射剂量的胰岛素全部推出;有选手通过远程攻击破解了某租车平台的数字钥匙,只要提供车牌号码,选手就能无视地理限制,对平台上的汽车进行解锁、开关车窗及空调等操作;此外,酒店送餐机器人、企业内部打印机、智能保险箱、电视机顶盒等和智能生活息息相关的挑战轮番上演。
上述案例,由于在比赛中展现出的技术难度、技术突破或创新价值而收获了荣耀。安全极客们可以在官网中参考过往案例,找到自己的研究方向,也可以独辟蹊径,超越束缚,找到更多攻破目标,展现超强极客力!
过去几年,GeekPwn大赛的比赛内容随着互联网发展重心的转移,从智能生活向智能产业不断延展,成为了聚合前沿AI安全、新基建安全、云安全等探索的前沿平台,让众多优秀安全极客的研究成果,真正成为了护航数字经济发展的助力,产生了巨大的社会价值。
在见证了无数次“第一次”破解之后,面对广阔无垠的未知之域,GeekPwn也正期盼更多身怀宝藏“探险家”的加入。意向参赛团队可在6月24日前通过GeekPwn官网报名通道提交参赛团队介绍、联系方式等参赛意向信息,并在8月24日前补充提交参赛项目的详细信息,包括项目具体描述,如攻击目标、技术手段、实现效果等,以供赛前选拔、评审。按照项目信息提交顺序,GeekPwn 比赛评委组将对参赛报名项目进行评审,并确定最终参赛入选项目。
安全研究没有限制和规则,缺的是技术和创意,还有一往无前、别出心裁的勇气和智慧。舞台已搭好,最强极客荣耀之战一触即发,你敢来吗?
有报名意愿的极客们,可以搜索GeekPwn官网进行报名
好文章,需要你的鼓励
Liquid AI发布了新一代视觉语言基础模型LFM2-VL,专为智能手机、笔记本电脑和嵌入式系统等设备高效部署而设计。该模型基于独特的LIV系统架构,GPU推理速度比同类模型快2倍,同时保持竞争性能。提供450M和1.6B两个版本,支持512×512原生分辨率图像处理,采用模块化架构结合语言模型和视觉编码器。模型已在Hugging Face平台开源发布。
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
阿里团队推出首个AI物理推理综合测试平台DeepPHY,通过六个物理环境全面评估视觉语言模型的物理推理能力。研究发现即使最先进的AI模型在物理预测和控制方面仍远落后于人类,揭示了描述性知识与程序性控制间的根本脱节,为AI技术发展指明了重要方向。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。