戴尔于近日宣布扩展网络产品组合,满足园区网络日益复杂的需求和数据中心内飙升的带宽需求 。针对园区网络,戴尔推出了全新的统一园区架构,其中包括全新戴尔网络C9010网络导向器交换机和C1048P高速接入节点;而针对数据中心,戴尔推出了戴尔网络S6100-ON,整合了多速率连接、模块化和开放式网络,提供无与伦比的机架内网络灵活性。
戴尔全球副总裁兼戴尔网络及企业构架总经理Tom Burns表示:“戴尔提供整体性的端到端网络方案,从连接数据中心内的服务器存储和工作负载到连接园区内的桌面和移动设备。这些新产品、新功能,以及更高的简洁性和灵活性,能够帮助客户为未来做好准备,我们对此感到十分兴奋。”
全新的戴尔统一园区架构专为需要更高的可扩展性和简化管理的大中型园区环境而设计,为从接入网到核心网的整个园区提供统一的管理视图。这为服务质量、政策配置、软件升级以及编程软件定义属性提供了统一的控制点。此外,由于使用行业标准协议,全新的戴尔园区架构让客户能够使用现有戴尔园区投资快速启动,只需把戴尔网络N系列重新部署为接入节点。
戴尔网络C9010网络导向器
全新戴尔网络C9010网络导向器是新一代多速率模块化交换机,并且是第一个基于全新戴尔园区网络架构的平台。它提供最高的可扩展性——最多4000个集中管理的虚拟端口,灵活地支持目前的10和40千兆以太网(GbE),并且在未来无需工具即可升级到100GbE以满足园区内各种用户和端点设备越来越高的带宽需求。一开始,C9010可以部署为传统的园区交换平台,无需戴尔网络C1048P高速接入节点,在有线机柜内聚合传统交换平台。
戴尔网络C1048P
但是,C9010在与C1048P高速接入节点结合使用时才能发挥最大威力,在园区网络内提供更高的简洁性和可扩展性。通过在用户访问和连回C9010时提供强化的以太网供电,戴尔网络C1048P扩展了C9010网络导向器的功能。C1048P可以独立部署或在堆栈配置中部署,并且可以随时引入到新架构当中,从而大幅简化了维护和运营工作。通过软件下载,当前客户环境中的戴尔N系列交换机也可以成为接入节点,从而更好地保护投资。
作为S系列数据中心交换机的最新成员,戴尔网络S6100-ON整合了多速率连接与机箱级模块化和开放式网络,非常适合那些希望在机架中获得最高灵活性和控制力的数据中心运营商。通过多个扩展模块,客户可以灵活地提供从10到100GbE的各种端口速度组合以及QSFP28和CXP端口选择,在部署中获得极高的灵活性。由于具备更高的密度、性能、灵活性和简化的管理,戴尔S6100-ON非常适合虚拟化、云计算和大数据分析环境——未来就绪企业的所有基础元素。
戴尔网络S6100-ON
戴尔网络C9010和C1048P将于2015年10月上市。
戴尔网络S6100-ON 预计将于2016年第一季度上市。
“说到理解数据中心目前和未来的要求,戴尔给我们留下了深刻印象。高密度以及从10GbE到100GbE的灵活的多速率方法对于满足我们的网络需求而言至关重要。”
- 美国杜兰大学首席技术官兼首席信息官Charlie McMahon
“这些产品把新功能引入了相对固步自封的网络市场。在这个市场,戴尔利用软件定义网络和开放式网络来挑战盛行的网络常规思维。多速功能让数据中心客户更有机会考虑这些产品,而其对园区的专注帮助戴尔沿着边缘进入全新领域,尽可能避免中断,这在网络这种保守市场是非常明智的举动。"
- Moor Insights & Strategy 高级分析师John Fruehe
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。