该处理器采用16nm工艺技术设计,拥有 48 个ARM Cortex-A75内核,六通道DDR4 3200 MHz 内存 - 每插槽高达 768 GB(每通道 128 GB),高速缓存:L1 - 64 KB 指令高速缓存和数据缓存,L2 - 每个核心 512 KB,L3 - 每个集群 2 MB,L4:32MB。该处理器主频高达2.2 GHz,功耗为120 W,工作温度范围为0至70摄氏度,标准Linpack超级计算机测试中的性能 为358 Gflops。
这4款服务器的CPU都是第5代AMD EPYC 9005系列,R7725和R6725支持的DDR5内存频率为6000 MT/s这个我不意外;但当初看到单CPU的R7715和R6715机型只支持到5200 MT/s时,还是有点不懂的?不过今天我想说它们应该也能支持到6000 MT/s了,后面会有具体证据列给大家。
IBM将在未来推出的Power产品中整合Spyre Accelerator(包括明年发布的Power11系统),并计划为IBM i操作系统使用的Report Program Generator (RPG)语言提供代码助手,解决方案提供商将把这一系列更新带给客户。
Al芯片是AI服务器算力的核心,专门用于处理人工智能应用中的大量计算任务,Al芯片按架构可分为GPU、FPGA、ASIC和NPU等。HBM作为内存产品的一种,已经成为高端GPU标配,可以理解为与CPU或SoC对应的内存层级,将原本在PCB板上的DDR和GPU芯片同时集成到SiP封装中,使内存更加靠近GPU,使用HBM可以将DRAM和处理器(CPU,GPU以及其他ASIC)之间的通信带宽大大提升,从而缓解这些处理器的内存墙问题。
多家戴尔渠道合作伙伴纷纷表示,该公司去年在其存储产品上市计划中的大幅修整已经初见成效,推动各合作方的收入逐步提升。戴尔团队正积极为存储领域的合作伙伴提供当面沟通和培训支持,共同为产品销售献策出力。
很多人想到模型私有化部署,会以为要数据中心的多台服务器来做,其实不然。办公室里搭建 AI 工作站,已经可以完美地支持企业内部知识库和一些POC场景的需求,比如进行量化的 70B 模型的训练和推理工作。所以在办公室环境下,同样可以搭建一个 AI 问答机器人。
每当AMD公司CEO苏姿丰宣布推出新的Instinct GPU加速器,数据中心AI加速产品的潜在市场似乎都在进一步扩大。
如果大家正在考虑升级自己的x86服务器机群——目前确实有不少企业、超大规模基础设施运营商和云服务商都在持币参与讨论——那么好消息是,英特尔和AMD均已推出其有史以来最强大的串行计算引擎。
在当下的AI竞争格局下,没什么能比一场AI浓度爆表的大会,更能快速彰显自身实力了,AMD的这场「Advancing AI大会」,就是印证。
戴尔今天推出了五款新的PowerEdge服务器,采用了AMD第五代EPYC处理器,主要针对AI开发和部署模型。
2017年7月份,Purley的新一代服务器平台,Purley平台将产品型号命名方式由此前连续使用四代的E7/E5变为至强可扩展处理器(Intel Xeon Scalable Processor,SP),系列型号按铂金(Platinum)、金(Gold)、银(Silver)、铜(Bronze)定义
Dell’Oro Group的一份新报告显示,在对AI-ready硬件需求的推动下,数据中心在2024年第二季度的资本支出增长了接近50%。
HPE与IronYun展开合作,后者是利用Nvidia GPU专门为零售商打造AI应用视觉的先驱。
戴尔在约一年之前推出了其Apex Red Hat OpenShift服务,支持在戴尔PowerEdge服务器上运行Red Hat OpenShift容器编排服务及带有SSD的PowerFlwx块存储。APEX是戴尔提供的一组服务,通过类似公有云的订阅模式提供计算、存储和网络设备。
近期,澜起科技股份有限公司公布了其2024年上半年的财务报告。报告显示,该公司在该期间内实现了16.65亿元的营业收入,较去年同期增长了79.49%;归属于上市公司股东的净利润达到5.93亿元,同比增幅高达624.63%;
戴尔近日表示,将与红帽合作,将Red Hat Enterprise Linux AI(RHEL AI)平台引入旗下流行的PowerEdge服务器,为其硬件铺平了成为人工智能开发基础之路。
在最新一份财务报告当中,截至8月4日的当季度(2025财年第二季度),戴尔公司已经表现出推动生成式AI商业化的迹象。
随着2024年夏季奥运会正式开幕,全球注意力转向巴黎,大部分焦点理所当然地放在了运动员身上。事实证明,数据中心(特别是数据中心热量)也发挥着作用。