在几乎每一个数据中心中,机架和机柜是必不可少的两大部件,但是它们的重要性却常常被人忽视。要是你选错了用来容纳设备的机架和机柜的类型,无异于 自找麻烦,具体表现为:热量、灰尘和温度给设备造成损坏;冷却成本过高;线缆凌乱不堪;噪声过大;以及安全泄密。采购机架和机柜时,要牢记下列考量因素。
知道自己的设备。你可能知道机架和机柜将用来容纳什么样的设备,但是也要知道该设备会带来什么影响。比如说,知道机架/机柜必须多高或多宽以便容得 下该设备,这必不可少。BlackBox网络服务公司的产品经理GinaDickson说,说到高度方面,“42U是标准高度,但是45U变得更加流行; 像38U这种比较低的高度对需要架空布线的老式机房来说可能很必要。”至于宽度方面,当前的机柜标准是24英寸宽,不过30英寸宽的机柜日渐流行。而在深 度方面,“如果你安装深度不同的设备,甚至可能需要考虑使用多套导轨或分离导轨,以容纳不同深度的设备。”总的来说,Rackmount解决方案公司的客 户经理SusanWynne建议购买容纳得下“最大规格尺寸”设备的机柜。
搞清机房。Wynne表示,与场地方面的考量有关的是,分析将来放置机架/机柜的机房。她说:“机柜是不是很容易运送到目的地?它可以通过标准高度 的门吗?门和侧板是不可以拆卸、以便安装?产品是不是结实耐用?有没有场地为另外购买的产品腾出空间?”Dickson补充说,考虑到活动地板和天花板高 度也很重要,它们会影响机架/机柜的高度有多高。她说:“说到选择机柜,总是尺寸越大越好,那样可以容纳更多的设备和线缆等部件。但是,如果你的场地面积 有限,那么48英寸深、30英寸宽的机柜也许不是个选择。”
保持冷却。最重要的考量因素之一是热量。评估设备会生成多少热量,将有助于确定什么样的冷却方法对于你购买的机架/机柜来说绰绰有余。 Dickson表示,比如说,使用传统的热通道/冷通道方法将影响所需的机柜门,因为你需要网状门。Dickson说:“你需要确保冷空气输送到机柜正 面,确保热空气从背面散发出来。”
在其他地方,用户忍不住想使用敞开的机架与机柜以便散热,但是这会导致整个机房热量上升。Dickson说:“如果生成的热量比较低,这可能没问 题。但是一旦机房里面有数量足够多的设备,那么让设备保持在可以接受的温度变得不可能。”她表示,一种日渐流行的方法就是采用遏制系统的、经过改动的热通 道/冷通道。“所有冷空气都被迫进入到冷通道,冷通道用门隔离起来,确保里面的冷空气不跑到外面。然后,热空气被重新输送到机房,或者使用机柜上面的烟囱 被输送到充气室。”这种方法的确需要机柜提供隔门和烟囱这些附件。
其他因素。你在采购机架和机柜时还需要考虑其他方面,比如确定设备是不是需要遵守欧洲电信标准协会(ETSI)标准;检查机架是不是预先钻孔、是否 可以调节;知道导轨宽度方面的限制和随附的安装硬件;采取防范地震的措施;了解办公楼的空调系统在夜间和周末的运行情况;还要考虑到噪声这个因素。
采购清单
√线缆管理功能是不是已内置?还是机架或机柜留出了足够的空间,以便合理布线?
√机架/机柜是否提供配电装置(PDU)安装选件?
√许多机柜现在随带标准的PDU安装支架。
√你安装的设备是不是需要螺纹孔或M6孔?
√你需要拆卸机架/机柜才能将运送到机房吗?
√机柜是不是可以上锁,防止潜在的安全问题?
主要术语:
M6孔:机架设备和服务器机柜中很常见的方形孔;借助锁紧螺帽,它们就可以适应圆形孔。
机架单位(RMU):机柜和机架以机架单位来衡量,每个RMU或U相当于1.75英寸。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。