新型基础设施的提出,标志着中国基础设施建设进入新阶段。新型基础设施要作为高质量的新型供给,引领国民经济结构调整和高质量发展。金融基础设施是金融市场稳健高效运行的基础性保障,是加快现代金融建设和强化风险防控的重要抓手,伴随着人工智能(AI)、云计算、大数据和物联网等数字化技术的发展,金融行业的数字化转型进程也在不断加速。
今天我们就盘点一下,金融行业的他们,如何选择自家的“新基建”:
江苏银行打造新一代核心系统存储
助力数字化转型“腾飞”
江苏银行成立于2007年,截至2019年末,总资产突破2万亿元,在英国《银行家》杂志2019年度全球1000强银行排名中,按一级资本列92位,蝉联全球银行百强,国内排名第18位。
2018年底,江苏银行正式启动核心基础设施改造计划以提升可靠性和处理性能。对于一家2万亿元资产规模的城商行来讲,核心交易业务连续性和系统可靠性永远是第一要务。作为江苏银行存储系统供应商,华为从2015年开始就一直扮演着重要角色,从最初运维管理系统以及外围生产系统的部署,一直到现在核心系统的全面部署。2019年10月底,江苏银行顺利完成核心业务向新一代核心系统存储全面切换上线,包括核心SOP、网银、手机银行、二代支付等数十个关键数据库和应用系统数据都完成切换,成为万亿规模城商行中第一个核心系统存储技术创新的银行。经过实际业务验证,华为OceanStor全闪存以高性能闪存介质与多控制器技术,消除存储设备性能瓶颈,业务高峰期手机银行awr存储侧性能提升卓越,并且系统可随业务需求在线扩展性能和容量,这恰好能满足未来客户量和交易量增长所需。同时,OceanStor高端全闪存凭借领先的SmartMatrix架构,有效保障系统可靠性,通过免网关双活和两地三中心数据保护方案,从架构到方案全面保障业务连续。
拥抱全闪存
中信银行数字化转型快人一步
中信银行成立于1987年,是中国最早参与国内外金融市场融资的商业银行,2019年,在英国《银行家》杂志“全球银行品牌500强排行榜”中排名第19位,总资产规模超6万亿元,以建设最佳综合金融服务企业为发展愿景。
在高速创新的背景下,过去由于无法准确预知新业务性能需求情况,导致规划性能不能支撑业务上线,最终只能再将数据迁移至更高配置硬件,既浪费投资又严重滞后业务。同时,传统存储多采用机械硬盘介质,其设备占地面积大、性能底、功耗大、故障率高等问题又成为居高不下的隐形TCO。由此,核心业务全面闪存化,很早便成为中信银行的IT战略之一。华为OceanStor全闪存将SSD、存储控制器和专利盘控配合算法进行端到端优化,从中信银行的实际部署情况来看,系统性能获得5~10倍提升,机柜空间节省80%以上,功耗降低超过50%;免网关双活架构降低部署复杂度,保证同城双活及两地三中心可靠部署;智能化管理工具将客户需求数字化,支持业务需求预测及规划,最终实现存储系统全生命周期的自动化管理。
如今,中信银行核心业务系统已采用华为OceanStor全闪存,SSD部署在全行存储介质占比已占相当比例,全闪存转型步伐在行业内处领先地位。
北京银行构筑云数据中心“战略高地”
2018年,北京银行排名中国区域性发展银行首位,品牌价值达449亿元,一级资本排名全球千家大银行63位,连续五年跻身全球银行业百强,被誉为中国最具创新能力和发展潜力的中型银行。
北京银行将“数字化转型”上升至核心战略。为有效提升信息化建设水平和数据分析能力,拥抱“互联网+”战略,北京银行构建了面向未来的云数据中心,通过私有云平台统一纳管异构虚拟化平台、分布式存储、全闪存存储等资源,向上提供计算、存储资源、数据库和中间件等软件的自助申请服务,实现多服务目录体系,同时提供计量计费、统计报表等功能,将整个云数据中心打造成一个标准化、自动化、可视化、高安全、高可靠的生产环境私有云平台。北京银行私有云平台业务数据主要通过全闪存资源池进行数据存储和管理。华为OceanStor全闪存提供NVMe架构全闪存解决方案,通过创新架构缩短45%端到端数据访问时延,满足业务系统对存储更高性能、更低时延、更加弹性的要求。在数据迁移功能测试中,通过Oracle数据库业务模拟,接管原存储系统,数据在线迁移到OceanStor全闪存后,Oracle数据库读写正常;在双活测试中,模拟两个数据中心站点,站点存储故障、站点传输链路故障、双活负载均衡流量分布、同步异步远程复制等全部通过。目前,华为OceanStor全闪存部署在生产环境中已经长期稳定运行,为北京银行数字化转型提供智能数据服务保障。
3月11日15:00-16:00,华为智能数据基础设施“学数派”,在“Σco时间”直播间准时带来《银行核心系统存储建设方案的成功实践》,将为您呈现:
●趋势分析:从银行业务发展趋势,看核心系统存储转型
●方案解读:探秘华为“金融核心存储容灾解决方案”
●案例分享:江苏银行核心系统转型改造实践
活动预告
2020年,华为中国生态大会进入第十年。伫立十年关口,本次大会将为您呈现全新的生态篇章。因聚而生 举势而为 ——华为中国生态大会2020,“华为搭台、伙伴唱戏”的 “众筹办会”模式闪亮登场,诚挚邀请您共同参与,把数字世界带入每个人、每个家庭、每个组织,构建万物互联的智能世界。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。