9月14日,华为云中国行在济南如期举行,华为EBG中国区行业云拓展部部长胡维琦在大会现场进行了“做有信仰的云,在创新的道路上加速奔跑”的主题演讲,发布了华为云全新产品:新一代分布式缓存Redis。华为云结合自身优势以及多年的实践经验,在缓存技术领域不断探索和追求,为用户提供高可靠、高性能、企业级的云缓存服务,帮助企业应用快速上云,从容面对数字时代的转型和挑战。
软硬件全栈新技术架构,新一代分布式缓存Redis
随着Redis生态的发展,越来越多的客户把数据放到Redis上处理,用于提升数据读写效率,业务量逐渐增大,对Redis的性能也提出更大挑战。华为云分布式缓存服务DCS取得突破性技术创新,基于软硬件全栈新技术架构,业界领先的LibOS等核心技术,推出新一代分布式缓存Redis,重新定义缓存架构。华为云将Redis单节点性能提升了300%,实例创建时间由原来的5分钟优化为5-10秒,为用户提供性能更强劲、服务更可靠的分布式缓存服务。
效率高 创建时间5分钟->8秒钟
华为云分布式缓存服务DCS使用华为自研服务器,配合轻量化的Docker容器以及极低的内存开销,让缓存实例更高效快速,原来需要5分钟才能创建好的Redis实例,现在只需要5-10秒钟,就可以轻松拉起。在游戏行业有个常见的场景:玩家参与游戏的时候要开服,经常在很短的时间内就会拉起上千个实例,如果按照以往一个Redis实例的创建时间要几分钟,这样的等待时间对用户来说是是很差的体验。华为云新一代分布式缓存Redis基于LibOS+轻量化容器的架构,短短几秒就完成实例创建拉起,对用户来说是很直观的体验提升。
性能强 单节点性能提升300%
在社交软件、实时交易系统等场景,实际的数据量可能没有很大,但是对数据的读写操作却非常频繁,属于典型的小容量高并发场景。在并发量高的时候如果为了保证系统能正常提供服务,一般采取的做法就是数据库扩容,以支持更大的并发量。华为云分布式缓存服务DCS通过LibOS技术革新,将底层的操作系统从原来的共享网络改为独占网络,优化传输链路,实现单节点的性能就可以提升300%,用户不必为了并发量而配置过大的实例,造成资源闲置浪费。
灵活定制 精准定制规格
新一代分布式缓存Redis还有很多值得一提的竞争力,比如可以根据不同客户的诉求,帮助用户最大限度利用资源。如资源的即买即用、灵活伸缩等。华为云分布式缓存服务DCS完全支持平滑扩展,扩容过程业务零中断,可以根据业务实际需要定制实例,帮助客户最大程度利用资源,避免浪费。目前华为云分布式缓存Redis单机和主备实例规格支持2GB到64GB,集群实例规格支持64GB到1024GB,支持一键在线扩容实例,完全不影响上层业务。
安全可靠 虚机级安全隔离
新一代分布式缓存Redis采用双机热备的高可用架构,主备实例通过实时状态监控,在主节点故障时,备节点秒级自动升级为主机,应用不感知节点故障。此外,还推出了容量保险功能,可以将溢出的数据offload到保险数据库并启动告警,防止数据丢失。比如用户创建了一个20G的Redis数据库,同时配置了一个10G的容量保险,在商品秒杀,产品巅峰活动等流量突发的情况下,数据库的数据一下子会超过20G,而用户并未采取扩容等措施解决数据增长的问题,溢出的数据就会存放到容量保险中以保证数据不丢失,同时启动告警提醒用户尽快解决容量问题。
就在前不久举行的开源数据库论坛暨MariaDB中国用户者大会上,Redis开源社区中国用户组特别授予华为云分布式缓存团队技术创新与突破奖,以表彰华为云分布式缓存服务在技术创新上取得的突破。在创新的道路上加速奔跑,我们会在缓存技术领域不断探索和追求,为用户提供高可靠、高性能、企业级的云缓存服务,帮助企业应用快速上云,从容面对数字时代的转型和挑战。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。