10月11日,HUAWEI CONNECT 2018(华为全联接大会)上,华为云与迈克菲(McAfee)、RSA、Rapid7等世界级安全巨头达成合作,就云安全测试、代码审计、api扫描、入侵防护、业务风控、及风险治理领域达成合作,并发布了云堡垒机服务、云安全测试等多款合作产品,再次表明了华为云愿与合作伙伴共建云安全生态,共同培育、发展、分享云安全市场的决心。
华为云安全总经理杨松表示,安全业务天然具有开放性,因为在复杂多变的IT环境、云环境下,安全问题多种多样,没有任何厂商能够解决所有安全问题,做完所有安全领域。比如像公众熟知的DDoS攻击,各种安全联盟的建立,共享威胁情报和技术能力,才能更好的对攻击进行发现、防御和溯源,服务用户。联手建立安全生态,是这个安全行业必然的选择。
华为云通过集成合作、技术合作、应用超市等方式进行安全生态的建设,对优秀的安全厂商,华为会提供资源,对好的技术和产品进行集成和合作开发,如今年与云安宝联合发布的云堡垒机服务;对少量用户刚需的安全产品,则在考虑自身优缺点、资源和技术的基础上,进行关键技术研发投入;对愿意与华为云一起成长的广大安全厂商,则提供安全超市,为厂商导流的同时,满足用户差异化的安全需求。目前,华为云已与多家国内外优秀安全厂商展开深度合作,为客户提供数百款云安全服务。
在技术合作方面,华为云致力于与业界优秀的安全产品与服务合作伙伴合作,为用户提供主机安全、网络安全、数据安全、应用安全、安全管理等各领域的产品和服务。华为云已与合作伙伴联合推出了云堡垒机、主机入侵检测、Web 应用防火墙、主机漏洞检测、网页防篡改服务及渗透测试等服务,提升了华为云的安全检测、感知及防御能力。
在云安全咨询服务方面,华为云寻求与各行业优秀厂商开展深度合作,为金融、政务、交通、制造等行业开发安全解决方案,同时,华为云与全球400多家解决方案伙伴合作,包括 Accenture、SAP、Infosys、ESI 等,帮助用户设计行业安全解决方案及商业模式,加速行业数字化转型。
在市场机会方面,首先,为伙伴提供Marketplace,帮助伙伴展现自己的产品、解决方案和服务,与华为云共享云上潜在客户和销售机会,提升销售、交付和维护环节的效率,降低业务经营成本;其次,合作伙伴可以借助华为遍布中国的云服务资源网络,将业务部署到全国。特别优秀的合作伙伴,还将有机会跟随华为云的全球化发展步伐,拓展海外市场;再次,华为已经同政府、教育、医疗、交通、制造、能源及大企业等市场建立了广泛、全面的合作关系,华为云将开放这些市场资源给合作伙伴,帮助合作伙伴创建新的安全产品和安全解决方案,在保障行业客户数字化转型的同时,实现客户、合作伙伴和华为的共赢;最后,华为云安全合作伙伴将有机会参加华为公司的各种线上及线下的品牌营销活动,展示产品解决方案、传播成功案例;随着合作的深入,还将有机会与华为云进行联合品牌营销活动、面向客户的联合解决方案发布等。
在技术支持方面,首先,华为云将赋能合作伙伴,帮助伙伴实现产品云化和服务上云;其次,向合作伙伴开放技术接口,支持合作伙伴开发面向各行业客户的安全方案;再次,华为云也逐步开放自己的安全技术能力和安全工程能力,通过培训、认证、开发接口、技术文档、安全标准、流程规范、安全测试等多种方式赋能给合作伙伴;最后,华为云将在法律法规和客户许可的前提下,促进合作伙伴间的安全情报共享和互通。
除此之外,华为云还在云安全标准、开源社区积极参与、主动贡献,为云计算产业健康发展贡献力量。
杨松说,华为云在安全等问题上一贯持开放、透明、自信的心态,并一如既往地、反复地表明华为云愿与合作伙伴共建云安全生态,共同培育、发展、分享云安全市场的决心。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。