6月8日,上饶银行新数据中心投产上线仪式在总行科技部举行,象征着上饶银行的核心系统圆满完成迁移,为全行业务连续性提供保障能力。上饶银行党委副书记、拟任行长胡军太,副行长俞坚、财务高级经理胡平、首席信息官尚松鹤等行领导以及相关项目组成员出席上线仪式。上饶银保监分局副局长纪奀武、统信科科长周志军、人行上饶中支科技科科长赵希明、中国移动上饶分公司副总经理郭建华、华为中国政企金融系统部副总经理张颖慧、华为江西政企业务总经理张涛等领导嘉宾到场共同见证这一荣耀时刻。
上饶银行是江西省上饶市首家具有独立法人资格的地方城商行,坚持以合规经营、持续创新、优质服务为经营理念,服务地方经济和中小企业,经过多年的业务拓展和建设积累,打造了机制灵活、管理规范、服务一流、信誉卓越的国内一流的区域性银行。随着传统业务和互联网业务的快速发展,上饶银行对信息技术支撑力和业务连续性的要求越来越高,原有数据中心无法继续支撑业务发展需要,急迫需要新建新型架构数据中心,提升业务效率和运维水平,构建“两地三中心”的容灾体系。
华为是全球领先的ICT(信息与通信)基础设施和智能终端提供商,致力投入金融行业的信息化建设和数字化转型,深入理解行业动态和业务痛点,打造从顶层规划到交付实施的端到端专业服务团队,广泛服务于国内460多家金融机构,在四大行、股份制银行和城商农信等金融领域有着丰富的优秀实践。依托华为的咨询规划能力和建设经验,并结合上饶银行的现网状况,明确了同城应用级双活,异地数据级容灾的“两地三中心”的建设目标。
在充分论证了同行的建设经验和技术选型,上饶银行最终采用了华为研发的OceanStor高端全闪存设备来构建存储基础设施,顺应了闪存新介质演进趋势,产品供应则实现了安全可控。同时,在容灾架构设计上采用最先进的双活模式,配合同城同步复制的“两地三中心”方案,这使得上饶银行的核心交易系统交易效率获得显著提升,整体架构更加稳定可靠,实现高标准的业务连续性能力。
不仅如此,上饶银行采用了华为研发的核心交换机承载数据中心核心网络,搭配业界领先的华为SDN技术和软件定义智能安全Hi-Sec,规划建设IPv4/IPv6双栈网络,领先江西同业完成IPv6建设和演进,进一步提升数据中心转发性能和运营运维效率,为上饶银行着力构建“大治理”、“大运营”、“大零售”体系奠定坚实基础。
除了领先的产品与解决方案外,华为还提供贴心的专业服务——针对客户核心业务的金融A+服务,包含容灾咨询设计、业务上线迁移、容灾切换演练等。专家参与现场实施,在碰到疫情导致项目延期长达2个月的情况下,积极应对,夜以继日投入,最终提前顺利完成核心业务系统的全面切换上线。
上饶银行新数据中心的上线投产不仅是信息系统的更换,更是近年来上饶银行围绕架构转型、技术升级、融合发展等方面深入探索与实践的成果,也是上饶银行服务社会、精益发展、持续创新价值观的体现。华为作为科技创新领域的领军企业,致力于以创新的数据基础设施支撑起未来科技金融的发展,持续研发投入,更好地满足数字化转型时代下银行业务发展需要,助力银行践行更好服务客户,服务社会的使命。
除了领先的产品与解决方案外,华为还提供贴心的专业服务——针对客户核心业务的金融A+服务,包含容灾咨询设计、业务上线迁移、容灾切换演练等。专家参与现场实施,在碰到疫情导致项目延期长达2个月的情况下,积极应对,夜以继日投入,最终提前顺利完成核心业务系统的全面切换上线。
上饶银行新数据中心的上线投产不仅是信息系统的更换,更是近年来上饶银行围绕架构转型、技术升级、融合发展等方面深入探索与实践的成果,也是上饶银行服务社会、精益发展、持续创新价值观的体现。华为作为科技创新领域的领军企业,致力于以创新的数据基础设施支撑起未来科技金融的发展,持续研发投入,更好地满足数字化转型时代下银行业务发展需要,助力银行践行更好服务客户,服务社会的使命。
活动预告
2020年,华为中国生态大会进入第十年。伫立十年关口,本次大会将为您呈现全新的生态篇章。因聚而生 举势而为 ——华为中国生态大会2020,“华为搭台、伙伴唱戏”的 “众筹办会”模式闪亮登场,诚挚邀请您共同参与,把数字世界带入每个人、每个家庭、每个组织,构建万物互联的智能世界。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。