至顶网网络与安全频道 03月24日 综合消息:3月24日,北京网络安全大会(BCS)携手全球信息安全大会(RSA) 举行的“全球首场网络安全行业万人云峰会”正式召开,中、美、俄、以色列、日、韩等多国顶级网络安全专家跨越太平洋展开对话与合作,共同探讨疫情之下的信息安全与全球网络治理、新技术带来安全风险,以及数字经济与“新基建”赋能网络安全行业等焦点议题。BCS主席、奇安信集团董事长齐向东在致辞中宣布BCS 2020正式启动,全球议题征集同步开启。
BCS主席、奇安信集团董事长 齐向东
“本次云峰会,是RSA大会和BCS大会两个顶级国际会议的首次碰撞”。齐向东表示,RSA大会是网络安全行业最有影响力的年度盛会,是整个行业的风向标;BCS大会是亚太地区最专业的网络安全盛会,去年首次举办就有5万多人次参会。尽管两个会议的举办地位于太平洋两岸,但我们对安全行业的理解是高度相似的。今年RSA大会的主题是“人的要素”,这和我们17年提出的“人是安全的尺度”是高度吻合的,和BCS大会去年提出的“内生安全”也十分契合,都强调了人对于网络安全的重要性。
针对目前全球各国仍在蔓延的新冠肺炎疫情,齐向东指出,“世界各国都处在抗击疫情的紧要关头。在这样的关键时期,一些黑客组织却对众多关键基础设施发起攻击,带来了极大的安全隐患。”
齐向东表示,在这种形式之下,网络空间正逐渐成为“抗疫第二战场”。就在3月16日,美国卫生与公众服务部网站遭到了数百万次的攻击;3月9日,负责监督欧洲高压电力基础设施运行的组织ENTSO-E被黑客入侵。我国安全形势也不容乐观,疫情期间,多家地市级医疗卫生机构的网站遭受DDoS攻击和大规模恶意扫描渗透。中国信息通信研究院发布的报告显示,黑客对医疗行业的暴力破解攻击达到了单日 80 万次的高峰。
齐向东提醒,在做好疫情防控的同时,网络安全风险不容忽视。一旦造成严重后果,将使全球疫情防控雪上加霜。尤其是,现在疫情催生了远程办公潮,网络安全风险呈几何级剧增。以前办公信息化不出楼、不离桌,关在内网里,不与互联网连接;但现在被移动办公彻底打破,极易引发灾难性后果,做好网络安全保障工作成为当前最迫切的任务之一。
“身处同一个地球村,没有一个国家是一座孤岛。”齐向东谈到,“我们举办的在线云峰会,就是为了在克服全球疫情影响,破除地域空间的限制,促进世界各国在网络安全领域的交流与合作,共同守护网络空间的和平与稳定。”
可以说,万人云峰会为疫情下的全球网络安全行业交流碰撞,开辟了一个全新的形式,创造了一个良好开端。在本次云峰会上,齐向东诚挚邀请业内人士参加8月在北京举办的BCS大会,并宣布BCS 2020正式启动,全球议题征集同步开启。
据悉,本次峰会邀请了中、美、俄、以色列、日、韩等多国顶级网络安全专家,包括RSAC总经理Linda Gray Martin,观潮网络空间论坛主席,国家创新与发展战略研究会副会长郝叶力博士,Palo Alto Networks公司首席安全官John Davies,日中商报社长、国际经济文化交流协会副理事长程显齐,伏羲智库创始人、中科院计算所研究员、清华大学互联网治理研究中心主任李晓东教授,中科院大学教授、国家创新与发展战略研究会副理事长吕本富,美国卡内基智库访问学者吕晶华,云安全联盟CEO Jim Reavis,以色列交通部网络安全主管Oren Elimelech,BCS执行主席、奇安信集团总裁吴云坤,滴滴信息安全战略副总裁弓峰敏,Rain Captial 创始人Chenxi Wang,思科安全首席技术官Bret Hartman,Cyber-defense Matrix和DIE Resiliency Framework提出者,著名信息安全专家Sounil Yu,清华大学奇安信集团联合研究中心主任段海新等,一起分享对网络安全的前瞻思考,共同探讨网络安全行业的新趋势和新机遇。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。