互联网+时代,创新方法和规则都在改变,失败者苦苦经营着门户网站,胜利者在手机上创造了生机勃勃的社区。失败者的生产车间在给别人代工,胜利者则是扎根用户一线携手创新。
在创新、创业的大潮中,IT运维似乎缺乏了“兴奋点”,但若把事件管理、故障管理、自动巡检……这些我们原本并不陌生的概念,与物联网、虚拟化、云计算、大数据等技术无缝融合,定会让人脑洞大开。
传统运维产品的痛点:不能“因地制宜”
国内的IT运维虽然起步较晚,但经过很长一段时期的市场培养,大多数用户对运维管理的价值判断、实施策略都有了新的认识。CIO已经不太容易被忽悠,稳扎稳打成为了新常态。这表现为:用户将所有的IT基础设施纳入到一个平台上,建立起IT基础设施的统一监控,并逐步结合业务实施透明化的管理。与此同时,这也锻炼出了一批不能“安分守己”的IT运维厂商,其中一个便是北塔软件。
那么,有着十多年的高速成长,在北塔BITM运维产品市场销量一片看好的情况下,这家国内IT运维的领导厂商为何没有选择安常守故,反而选择再次进化呢?这还要从用户需求改变谈起。
当前,更多的用户需要‘个性化’的运维系统,其原因在于运维场景升级或变化后,往往投入较大精力进行调试,其复杂性超出了用户的预期,导致运维效率不高。许多用户不理解,连服务器硬件配置都可以针对Web网站、核心数据库、ERP系统进行量体裁衣,为何软件不能智能调整?
对此,北塔软件表示:传统网管软件是按照既定阈 值判断来实现告警,但每个生产场景的“风险阈值”不同,这就直接导致前期需要很长一段时间进行试运行。另外,随着硬件可靠性的提升,发现的问题也是越来越 少,运维软件自动巡检后的数据无法被利用,用户积累的运维经验很难与软件融合。而利用互联网能思维研发产品的好处在于,我们能够第一时间了解这些需求,并 且与用户一起发现了问题的根源。要改变,就不能过度依赖事件管理,数据运维才是出路。“
从事件到数据,运维将完成“质变”
IT技术创新推动了企业信息化结构的调整与变化,而需求变化才是运维产品一次又一次进化的动力。那么,敢于携手用户一同设计产品的北塔软件,能用互联网思维造出来什么呢?
“以事件为核心的传统运维,侧重于对故障的定位和解决。而新一代的IT运维产品若要以数为核心,首先要满足‘大’,为此我们采用了分布式采集器,提供了高达470亿字段(业务指标)的存储能力,为数据运维提供了强大的基础支撑。以数据运维为核心指导思路可以让运维更能适应个性化的工作场景,通过智能化、自动化的手段,深入挖掘运维数据的价值,为日常运维提供更精准的决策依据和趋势分析。”
北塔软件的思路是:要敢于审视和反思自己,如果连这样的胆子都没有,就不可能去认真听取用户建议,就不可能完成产品设计上的质变。
这个思路给了设计人员更多的“想象力”。作为新一代的智能运维系统,仅仅有大数据是不够的,应具备自主学习、智能运维的强大能力。具体来讲,用 户仅需将管理对象加入到运维系统后,无需其他配置,该系统就应该具备了传统运维软件的中等运维水平。下一步,系统将能自动学习用户环境现状,根据不同行业 和不同管理等级,主动生成“正常”基准、对业务系统自动巡检,智能判定用户环境中的异常问题。这个过程是“螺旋向上”的,也就是说用户不会因为运维能力提 升了,就需要再购买新产品,这样才能算是为用户的“个性化”场景提供智慧运维。
互联网思维的产品不是简单地把传统品牌和产品在互联网上的移植,也不仅是基于互联网上的项目和产品,它要表达思路是企业“为谁创造产品”。而北 塔软件从事件运维转到数据运维的做法,正是从广大用户的诉求而来。那么,若要在互联网思维下创造产品,还剩下最后一个问题,这就是“速度”。那就让我们期 待新一代IT运维产品早日亮相,看看它能在“互联网+”时代有何作为?
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。