1月7日,华为宣布推出业界最高性能ARM-based处理器-鲲鹏920(Kunpeng 920),以及基于鲲鹏920的TaiShan服务器、华为云服务,并携手产业伙伴推动ARM的产业发展,打造开放、合作、共赢的生态环境,将计算性能推向新高度。
华为董事、战略Marketing总裁徐文伟表示:
“华为在计算领域围绕客户价值持续创新;我们预见,随着智能社会的到来,未来这一领域还将持续增长。当前业务和数据的多样性带来了异构计算的需求,长期以来,华为与Intel共同合作取得了很好的成绩,为ICT产业发展作出积极贡献,华为与Intel将长期保持战略合作、持续创新。同时,ARM产业迎来新的发展机会,华为本次发布鲲鹏920及TaiShan服务器,主要应用于大数据、分布式存储、ARM原生应用等场景。我们携手全球合作伙伴,秉承开放、合作、共赢,促进ARM生态发展,做大计算领域空间,拥抱多样性计算时代!”
01
业界最高性能ARM-based处理器
同性能下功耗降低30%
鲲鹏920是目前业界最高性能ARM-based处理器。该处理器采用7nm制造工艺,基于ARM架构授权,由华为公司自主设计完成。通过优化分支预测算法、提升运算单元数量、改进内存子系统架构等一系列微架构设计,大幅提高处理器性能。典型主频下,SPECint Benchmark评分超过930,超出业界标杆25%。同时,能效比优于业界标杆30%。鲲鹏920以更低功耗为数据中心提供更强性能。
鲲鹏920主频可达2.6GHz,单芯片可支持64核。该芯片集成8通道DDR4,内存带宽超出业界主流46%。芯片集成100G RoCE以太网卡功能,大幅提高系统集成度。鲲鹏920支持PCIe4.0及CCIX接口,可提供640Gbps总带宽,单槽位接口速率为业界主流速率的两倍,有效提升存储及各类加速器的性能。
02
华为TaiShan
业界性能最优的ARM服务器
华为同步推出基于鲲鹏920的TaiShan系列服务器产品,包括均衡型,存储型和高密型三个机型。
TaiShan系列服务器主要面向大数据、分布式存储和ARM原生应用等场景,发挥ARM架构在多核、高能效等方面的优势,为企业构建高性能、低功耗的新计算平台;例如大数据场景,实现了多核高并发和资源调度调优,计算性能提升20%。基于TaiShan服务器,华为云也将提供弹性云服务、裸金属服务和云手机服务。
03
三个层面发力,
积极构建开放、合作、共赢的
ARM生态环境
华为从硬件、基础软件和应用三个层面不断推进产业合作。长期以来,华为与GCC、Linaro、OEHI等产业组织,以及Hortonworks、Microsoft、Oracle、SAP、SUSE、Ubuntu、中标软件等合作伙伴共同打造开放、合作、共赢的生态环境。在硬件层面,华为已成为Linaro的核心成员;在基础软件层面,华为已成为OpenStack的白金会员、CNCF的Founder成员;在应用层面,华为参与绿色计算产业联盟GCC,GCC发布《绿色计算产业联盟服务器标准白皮书》、并构建绿色计算开源开放社区;华为在欧洲参与“Open Edge+HPC Initiative”。
华为认为,万物互联、万物感知和万物智能的智能社会正加速到来,基于ARM的智能终端应用加速发展并出现云端协同;与此同时,云计算下的新业务让数据类型越发多样性,如大数据应用、分布式存储和部分边缘计算等,这些场景应用对多核(Many Core)高能效计算提出明确需求,在性能和功耗方面具有优势的ARM计算系统将发挥作用。
从行业趋势和应用需求看,多样性计算时代正在到来,多种数据类型和场景驱使计算架构的优化,多种计算架构的组合是实现最优性能计算的必然选择。
徐文伟最后表示:
麒麟980助力华为手机推向智慧新高度,基于昇腾310的产品和服务(如华为云)使能行业普惠AI;今天,我们以鲲鹏920,把计算带入多核异构的多样性时代。华为在计算领域厚积薄发、持续的创新突破 ,与客户及伙伴一起共同努力,构建万物互联的智能世界!
好文章,需要你的鼓励
DeepResearchGym是一个创新的开源评估框架,专为深度研究系统设计,旨在解决当前依赖商业搜索API带来的透明度和可重复性挑战。该系统由卡内基梅隆大学研究团队开发,结合了基于ClueWeb22和FineWeb大型网络语料库的可重复搜索API与严格的评估协议。实验表明,使用DeepResearchGym的系统性能与使用商业API相当,且在评估指标间保持一致性。人类评估进一步证实了自动评估协议与人类偏好的一致性,验证了该框架评估深度研究系统的有效性。
这项研究介绍了FinTagging,首个面向大型语言模型的全面财务信息提取与结构化基准测试。不同于传统方法,它将XBRL标记分解为数值识别和概念链接两个子任务,能同时处理文本和表格数据。在零样本测试中,DeepSeek-V3和GPT-4o表现最佳,但在细粒度概念对齐方面仍面临挑战,揭示了当前大语言模型在自动化XBRL标记领域的局限性,为金融AI发展提供了新方向。
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。