至顶网网络与安全频道 12月12日 综合消息: 近日,盛邦安全发布了Web应用安全综合治理系统RayGate v3.0版本,新增了IPv6资产自学习、定制化策略模板、三级用户站点开通、篡改事件手机端查询等功能,并对系统进行了整体性的优化。RayGate v3.0版本可以更好地应对新时代 Web 应用技术发展,对资产进行更加准确、全面、便捷的治理,更广泛地满足高校网络、园区网、云计算中心、行业垂直网络及政府横向网络等场景的Web治理要求。
立足于“先梳理、后治理”的安全治理理念,结合网络安全法中对于网络安全管理、监测与应急处置等方面的要求,RayGate是一款覆盖信息资产全生命周期的安全治理平台,通过资产梳理、备案审核、立体化防御、自动化运营、应急响应五个步骤,形成对Web资产的闭环管理,从而大幅提升 Web 应用的安全性。基于Web资产管理的新环境和新需求,该升级版RayGate提供了更加强大的资产治理能力。
“在帮助行业用户进行Web治理的过程中,我们发现,越来越多的网络开始兼容IPv6环境,与IPv6相关的网络资产也越来越多,用户需要更好地对IPv6资产进行梳理。同时,随着Web资产数量的快速增长以及日趋复杂化,市场需要更加高效的Web资产管理产品和解决方案,以降低运维人员负担,提升工作效率。”盛邦安全产品负责人指出,“因此,我们推出了RayGate v3.0版本,新增了IPv6资产自学习、定制化策略模板、三级用户站点开通等功能,可以更有效地帮助用户简化Web资产管理工作。”
具体来说,RayGate v3.0版本实现了以下功能和性能方面的提升:
IPv6资产自学习,Web资产一览无余
RayGate v3.0版本新增IPv6资产自学习、IPv6网络管理、IPv6资产漏洞扫描等功能,灵活适应不同网络环境下的资产管理。
定制化策略模板,任务下发方便快捷
RayGate v3.0版本定义了漏洞评估、合规评估、常态模式的业务模板。用户在下发检测任务的过程中,可以灵活地根据实际需要选择相应的业务模板,提高检测效率。
三级用户站点开通,备案流程实时跟踪
新版本在备案流程中新增站点开通模块。在实际的客户使用场景中,新建网站进行上线前,需要以提交纸质申请同时配合邮件申请的形式向信息中心部门进行上线申请。治理平台新增三级用户可独立发起备案流程功能,在此流程中涵盖信息提交和漏洞检测。备案申请提交后将会通过邮件通知上级用户依据备案信息进行审核,备案全流程可以通过平台进行实时跟踪和记录。通过治理平台线上的申请及备案,可以方便快捷的完成数字化备案流程。
篡改事件手机可查,一键下线防护无忧
新版本中新增篡改事件手机端详情查看功能,在资产发生篡改事件时能够及时查看详情,并结合一键下线功能,及时关停被篡改的网站,提升应急响应能力。
UI界面推陈出新,重点数据一目了然
新版本对于 UI 界面进行了改进,突出重点数据,资产概况分析更为详尽,便于运维人员及时、准确地掌控网络资产动态。
优化webshell检测,网页后门无处可藏
新版本新增了行为监测功能,可以对攻击执行命令的响应结果进行检查判断,同时增加webshell特征库,提高了webshell检测的准确率,减少误报和漏报。
盛邦安全相关产品负责人表示:“该新版本响应及贴合了行业用户Web安全治理的新的需求,提供了更精准、全面的web资产安全治理能力。在未来,盛邦安全将结合人工智能与大数据态势感知技术,为用户提供更高效、智能、易用的Web资产管理平台,实现从问题资产发现到安全事件处置的闭环安全管理。”
好文章,需要你的鼓励
华中科技大学与利哈伊大学研究团队开发的MMMR基准是首个专门评估多模态大语言模型推理思考过程的综合工具。通过1,083个跨六大领域的高难度推理任务和创新的推理过程评估管道,研究发现即使最先进的模型在推理任务上也与人类存在约10%的差距。研究揭示了答案准确性与推理质量间的脱节:模型常出现思考不一致(41.5%)、过度思考(20.5%)等问题。这一基准不仅评估答案正确性,更深入分析思考质量,为提升AI系统的可靠性和透明度提供了重要方向。
UI-Genie是一个创新的自我改进框架,解决了GUI智能体面临的两大挑战:轨迹验证困难和高质量训练数据缺乏。研究团队开发了专用奖励模型UI-Genie-RM,采用图像-文本交错架构有效处理历史上下文,并统一了步骤级和任务级奖励评估。通过精心设计的数据生成策略和迭代自我改进,该框架无需人工标注即可创建高质量合成轨迹。实验结果显示,经过三轮数据-模型自我改进后,UI-Genie在多个基准测试上达到了最先进水平。该研究已开源全部实现和数据集,为GUI智能体研究提供重要资源。
浙江大学和蚂蚁集团的研究团队开发了ACTIVE-O3,一种创新框架,赋予多模态大语言模型"主动感知"能力,使AI能够智能地决定"看哪里"和"怎么看"。基于群体相对策略优化(GRPO)构建,该系统采用两阶段策略,先选择关注区域,再执行任务。实验表明,ACTIVE-O3在小物体检测、密集物体定位和交互式分割等任务上显著优于现有方法,并展示出强大的零样本推理能力。该研究为AI系统提供了更接近人类认知的视觉探索能力,对自动驾驶、医疗诊断等领域具有重要应用价值。
ImgEdit是北京大学与兔小贝AI联合推出的图像编辑框架,解决了开源编辑模型落后于商业产品的问题。该框架包含120万对高质量编辑图像对,涵盖13种编辑类型和11万个多轮交互样本。通过融合视觉语言模型、检测模型和分割模型的多阶段流程,ImgEdit确保了数据的高质量性。研究团队基于此数据集训练了ImgEdit-E1模型,并提出ImgEdit-Bench评估基准,从指令遵循、编辑质量和细节保留三个维度全面评估模型性能。实验结果显示,ImgEdit-E1在多个任务上超越现有开源模型,推动了图像编辑技术的进步。