ZD至顶网网络频道 03月07日 综合消息:经常接触不同行业的 CTO,我发现谈到 IT 系统,大家关注的方向往往差异很大。有时,即使是处在同一行业,也会因企业规模的不同而各有侧重。
例如,制造行业较多关注的是整体 IT 的成本,一直到未来 3~5 年内的 TCO(Total Cost of Ownership,即整体拥有成本);医疗行业,比如医院,更在意整体应用系统的稳定性、可管理性和安全性,毕竟医院的很多临床业务应用直接关系到患者的身心健康甚至生命安危;金融行业,比如银行、证券,则更聚焦在 IT 系统的安全性、性能表现、以及未来随业务扩展的平滑和敏捷性,因为对他们而言,安全、性能、速度意味着更好的服务体验。
然而,万变不离其宗。不改变 IT 架构,这些需求会越来越难以满足。
这并非夸大其辞,一位制药行业的 CTO 曾对我说:5年前,公司的业务规模只有 200 万销售额,1台服务器挂个磁盘阵列就轻松解决业务需求;现在,公司年销售额猛增至 30 多个亿,业务部门信息化应用的需求也越来越多,服务器和存储的数量快速增加,IT 架构扩展、运维管理的瓶颈越来越突出,IT 投资也逐年攀升!这位 CTO 坦言,这些问题已困扰他多时。
当企业规模开始迅速扩大,旧有的 “膏药式” IT 采购和部署方式的潜在弊端会被骤然放大——高昂的采购和维护成本、充满风险的扩展过程、不同品牌厂家带来的兼容性问题,甚至出现问题后的互相推诿……
有没有一项能化繁为简、面面俱到的强大技术呢?
有!超融合架构,在国外被称为 Hyperconverged infrastructure。从这个技术诞生之日起,它就备受 CTO 们的关注。
IDC 最新的一项全球范围调查数据[1] 表明,在 2014~2019 年间,超融合架构以近 70% 的年复合增长率,成为行业 CTO 们的战略投资首选。
超融合架构的最大特点就是将传统 IT 架构中彼此隔离的网络、服务器和存储系统基于虚拟化平台进行融合。不过,这种融合的能力不同厂商之间也是百家争鸣,各显神通。
然而从本质上讲,基本可以概括为组装型、开源型和商用型三类。
组装型:由用户自行采购设备,采购成本低,但达到最佳实践需要用户凭经验摸索,时间成本较高,最大的问题是兼容性隐患大、可靠性差、故障率高。
开源型:用户主要选择开源软件降低成本,主要的陷阱是软件的碎片化,一旦开源系统服务外包的核心人员离职,后续运维与维护就会面临很大的挑战。
商用型:用户选择信赖的厂商,采用商用软件+商用硬件,主流商用公司之间的互认证,保障了兼容性和可靠性。
而作为商用型的领头羊,思科希望达到更全面、更深入的融合,并非简单集成——思科 HyperFlex 超融合架构,目前也是业界唯一将网络、计算和存储系统、虚拟化软件进行深度融合的最完整超融合架构。
深度融合的特点,使思科 HyperFlex 超融合架构不仅具备强大的数据优化能力,而且支持统一管理,可面向更广泛的工作负载,从而实现管理的简化、扩展的平滑性和整体成本的收缩。
江苏利诚纺织集团近期建设的第二代 IT 系统,通过引入思科 HyperFlex 超融合架构,采购成本降低了约 15%,服务和管理成本降低了 30% 左右。不仅大幅降低了 TCO,提高了 ROI,IT 也更加高效,更能聚焦于业务创新。
记得金庸的《笑傲江湖》中,风清扬传授给令狐冲的 “独孤九剑”,把破解普天下所有兵器和拳脚功夫的招数,简化浓缩成九式。这和我们今天聊的思科 HyperFlex 超融合架构,颇有异曲同工之妙。
化繁为简,也正是驱动科技发展的有趣动力之一。
好文章,需要你的鼓励
新加坡国立大学研究人员开发出名为AiSee的可穿戴辅助设备,利用Meta的Llama模型帮助视障人士"看见"周围世界。该设备采用耳机形态,配备摄像头作为AI伴侣处理视觉信息。通过集成大语言模型,设备从简单物体识别升级为对话助手,用户可进行追问。设备运行代理AI框架,使用量化技术将Llama模型压缩至10-30亿参数在安卓设备上高效运行,支持离线处理敏感文档,保护用户隐私。
阿里达摩院联合浙江大学推出VideoRefer套件,这是首个能够精确理解视频中特定物体的AI系统。该系统不仅能识别整体场景,更能针对用户指定的任何物体进行详细分析和跨时间追踪。研究团队构建了包含70万样本的高质量数据集VideoRefer-700K,并设计了全面的评估体系VideoRefer-Bench。实验显示该技术在专业视频理解任务中显著超越现有方法,在安防监控、自动驾驶、视频编辑等领域具有广阔应用前景。
OpenAI推出新AI模型GPT-5-Codex,能够在无用户协助下完成数小时的编程任务。该模型是GPT-5的改进版本,使用额外编码数据训练。测试显示,GPT-5-Codex可独立工作超过7小时,能自动发现并修复编码错误。在重构基准测试中得分51.3%,比GPT高出17%以上。模型可根据任务难度调整处理时间,简单请求处理速度显著提升。目前已在ChatGPT付费计划中提供。
Sa2VA是由UC默塞德等高校联合开发的突破性AI系统,首次实现图像视频的统一理解与精确分割。通过巧妙融合SAM-2视频分割技术和LLaVA多模态对话能力,Sa2VA能够同时进行自然对话和像素级物体标注。研究团队还构建了包含7万多个复杂视频表达式的Ref-SAV数据集,显著提升了AI在长文本描述和复杂场景下的表现。实验显示,Sa2VA在多个基准测试中达到业界领先水平,为视频编辑、医疗诊断、智能监控等领域带来新的应用可能性。