8月18日,由亚洲领先的DRP数字风险防护领导者企业天际友盟牵头举办的「GDN·全球数字风险阻断网络」发布会于北京正式召开。
什么是GDN
随着数字化进程的加快,企业对于数字风险防护管理的需求与日俱增,其数字足迹、数字资产,甚至高管的个人形象都可能成为不法分子的攻击目标。保护关键数字资产与数据免受外部威胁,提升在线业务运营稳健性的价值毋庸置疑。
天际友盟基于多年数字风险防护实践,依托全球情报分析和处置能力,携手业界数字基础设施管理平台和行业能力合作伙伴,共同打造了全球数字风险阻断网络·GDN(Global Disruption Network)。
GDN的宗旨是—联合生态力量,抵御数字风险,打击网络犯罪。
GDN能做什么
GDN的成立,可以大大提升数字风险防护的生态协同能力,成员机构的协作流程如下:
Step1.确认数字风险:天际友盟通过自主监控和生态情报,整合并评估数字风险。
Step2.分发GDN网络:天际友盟将数字风险传递至GDN网络成员。
Step3.打击数字风险:GDN合作伙伴依照其内部风险评估机制对风险采取阻断行动。
通过以上工作流程协同合作,GDN成员能够快速阻止用户对恶意站点和内容的访问,主动治理数字风险,阻止潜在威胁。同时,成员可以通过共享风险情报和攻击指标协同阻止恶意内容,有效提高用户数字业务安全体验。
GDN的出现协同联动了多方行业生态力量,成员之间专业能力互补互助,以共同保障用户业务数字化旅程的安全。
GDN成员的义务
打击数字风险欺诈—GDN合作伙伴应高效积极打击平台涉及的数字风险内容,强化平台自主管理风险的义务,助力构建和谐网络环境。
阻断数字风险路径—GDN合作伙伴对于在多个平台中流转的数字风险和网络犯罪,应在自由平台上完成链路阻断,严防风险的传播及叠加共振。
消除数字风险误报—对于误报类数字风险,平台应给予绿色通道,高效审核并恢复误报信息。
GDN成员机构
(更多机构,持续更新)
加入GDN,企业机构能够更好的承担ESG社会责任,为更好的互联网环境和数字风险治理贡献一份力量,并有机会获取天际友盟提供的专有DRP Feed—数字风险防护明文情报!
Join us now!
来自GDN发布会的声音
GDN发起单位天际友盟创始人兼CEO杨大路表示:“GDN全球数字风险阻断网络是天际友盟基于多年数字风险防护实践,依托全球情报分析和处置能力,携手业界数字基础设施管理平台和行业能力合作伙伴,共同打造的全球数字风险阻断网络。希望GDN的出现能够为各方建立起高效、有效的沟通桥梁,及时以最快的速度将数字风险扼杀在萌芽阶段,更好的保障用户业务数字化旅程的安全。”
GDN成员单位北京反侵权假冒联盟副秘书长侯颖表示:“北京反侵权假冒联盟CAASA在‘共治、共建、共享’的基础上,通过多方联动,为会员单位构建了社会共治立体保护体系。在天际友盟的技术支持下,联盟已经为会员单位处理了多起侵权域名下架案例。得到了会员单位非常高的认可与信任。联盟以保护知识产权,打击侵权假冒为核心,很荣幸与天际友盟共同携手,构建知识产权大保护格局,为数字经济发展保驾护航。”
GDN成员单位北京腾瑞云文化科技有限公司副总赵玺媛表示:“目前数字版权侵权形式多、分布广,并且随着网络技术的进步有了更快的扩散速度,应对这一局面,及时阻断侵权内容的传播尤为重要。CPSP版权平台通过数字身份标识、数字水印追踪、数字资产加密做到侵权的“事前防御”;以区块链存存证取证、全网检测、侵权维权做好侵权的“事后保护”。平台还具备多维维度相结合打击的能力,可及时阻断侵权行为,保护数字版权资产价值。”
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。