10月21日,“湾区创见·2020网络安全大会”新闻发布会在深圳召开,深圳市人民政府副市长聂新平,公安部网络安全保卫局一级巡视员、副局长郭启全,深圳市政务服务数据管理局局长刘佳晨出席会议,并介绍大会及“网鼎杯”的背景及筹备组织情况。深圳市委网信办副主任金琇、深圳市公安局网络警察支队支队长张勇出席并回答记者提问。
湾区创见·2020网络安全大会将以“新基建 新安全”为主题,于11月28日-29日在深圳国际会展中心召开,并同步举办“网鼎杯”国家级网络安全大赛决赛。这是目前华南地区规格最高、规模最大的网络安全大会,目标是打造背靠湾区、立足华南、辐射全国的重要安全会议品牌,提升粤港澳大湾区网络安全产业影响力,为全国城市智慧化发展和网络安全工作作出贡献。
大会由深圳市人民政府主办,深圳市政务服务数据管理局、深圳市公安局、深圳市互联网信息办公室、深圳市密码管理局承办,深信服、华为、腾讯、平安和鹏城实验室协办。
深圳副市长聂新平表示,深圳举办网络安全大会,是深圳贯彻落实习近平总书记重要讲话精神、抢抓“双区”驱动和综合改革试点重大历史机遇、服务全国网络安全产业高质量发展的具体举措。深圳市近年来深入实施网络强国战略,在智慧城市和数字政府建设、落实《网络安全法》,推动《深圳经济特区数据条例》立法、构建完善网络安全产业体系和管理服务体系、一流网络安全人才引进上取得显著成绩。深圳技术创新活跃、科技企业集聚、产业基础雄厚,培育了深信服、华为、腾讯、平安一批网络安全龙头企业。
通过本次大会的举办,一是能够助推网络安全建设和产业创新发展;二是能为智慧城市和数字政府建设提供安全支撑,积极应对5G、AI等新一代信息技术应用带来的安全挑战;三是进一步推动大湾区全面交流、深度交融。深圳全力打造网络安全治理样板,形成一批可复制可推广的治理成果,解决好智慧城市和数字政府建设网络安全系列基础问题。
“当前网络安全形势复杂、严峻。应按照习近平总书记指示要求、按照中央决策部署,对标对表,形成合力共同维护国家网络安全。”公安部网络安全保卫局副局长郭启全表示,在新时期,要按照新理念、新举措,网络安全必然上到新高度。深圳5G和AI技术全国领先,因此今年在深圳以“新基建 新安全”这个主题,举办这样立足粤港澳大湾区的网络安全大会非常重要。
本次大会会期为二天,采取“2+15”的设置,即2场主论坛+15场分论坛。大会具有五大特色:
一是政府引导、企业牵头,多方参与,以丰富的形式共同展示深圳网络安全产业开放包容的整体形象和城市魅力。
二是立足湾区,辐射全国,把大会打造成具有持续发展力和国际影响力的国际网络安全盛会。
三是创新引领,紧密结合“双区”建设和新型智慧城市建设的要求,围绕新基建和“5G+AI”技术下的网络安全,聚焦国家政策解读、前瞻技术分享和行业安全实践分享。
四是总结经验,赋能抗疫,大会将分享公共卫生突发重大事件时期,深圳网络安全应对经验和策略建议。
五是赛会衔接,相互促进,本次大会将衔接深信服和永信至诚联合主办的“网鼎杯”网络安全攻防大赛决赛和TECHSPARK星星之火IT创新创业比赛决赛,选拔网络安全高端人才、网络安全与新基建相关技术领域的创业独角兽。
深圳市政务服务数据管理局局长刘佳晨表示,希望让更多的企业和专业人才亲身感受深圳市场化法治化国际化营商环境、生机勃勃的创新创业环境和优良的生态环境,扎根深圳,共同建设具有全球影响力的网络安全创新高地。
大会内容覆盖了5G安全、云安全、等保 2.0、零信任保护,以及智慧政务、智慧医疗、商企安全实践、金融安全等当下网络安全领域的最热议题。届时,深信服、华为、腾讯、平安、鹏城实验室等粤港澳大湾区代表企业和协办单位,将携最新的网络安全创新技术和应用方案共同亮相本次大会。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。