现有 SOC 最佳实践倾向于将重点放在响应、周期时间等操作指标上。不过,仅关注这些指标可能会导致盲点,继而忽视甚至无视绩效的关键组成。通过使用业务管理层平衡计分卡技术,我们将获得更广阔视野,进而更公正地评估 SOC 的绩效。
平衡计分卡是一种业务绩效管理技术,旨在从不同视角整合多个指标。该技术避免了只选择单个指标而忽略其他项的子优化。尽管平衡计分卡专为企业管理层编写,但我们可以通过概念调整将其用于评估 SOC。
平衡计分卡引入了四个视角:财务、客户、内部和改进。在每个视角中,每个团队会确定按工作场所不同而有所差异的关键成功因素和绩效基准。平衡计分卡可能会有年度更新,以确保每个视角的指标之间都保持良好的平衡。
成本是每位财务经理所列清单的必要元素。正确定义和控制成本的 SOC 团队将能够更好地为内部管理层所接纳。虽然总体预算是不错的切入点,但我们能够通过研究成本来获得更多洞察力。这些成本可能与软件许可、人员、存储和位置相关。
SOC 可能在存储上投入太多,因而需要寻求成本更低的存储解决方案。此外,大量未充分使用的软件许可可能是需要重新检查的方面。平衡计分卡的指标可能包括总体预算、子团队之间的分配或组成(固定或可变)。
接下来,我们要考虑小组中其他团队的问题。安全团队与其他团队的互动如何?尤其是在 SOC 必须处理事件管理流程的情况下,配备经过充分测试的联系途径会起到至关重要的作用。其他团队认为安全人员是否容易相处?报告可能发生的事件,他们是感觉到成就感还是疲惫?
客户如何看待安全团队是我们取得成功的关键。因此,在团队内部和整个组织确立文化重要性非常关键。采用平衡计分卡进行此类追踪的指标可能包括调查、内部参与度统计数据或其他形式的反馈。
平衡计分卡的内部视角部分涵盖了 SOC 的任务。根据范围的不同,内部视角可以包含从监控到事件管理或威胁捕获的任何内容。此类追踪的指标往往是最容易获取的指标,因为大部分数字系统已经以可用格式将相应数据融入其中。
此外,我们还应考虑其他间接指标,比如员工流动率、员工士气等。某些 SOC 的任务可能会是平平无奇或是令人感到有压力的任务,因此我们要确保管理层随时了解员工的健康情况。困斗于员工保留的 SOC 会错失重要的知识积累,为其自身的未来绩效带来阻碍。因此,员工保留是评估 SOC 未来绩效的关键预测指标。
最后,良好的安全性需要我们保持与新技术的同步并不断作出改进。SOC 在部署新技术时必须能够与组织保持同步,而安全人员也必须了解最新的建议、良好实践和知识。通过具有里程碑和指导路径的路线图,我们可以通过平衡计分卡追踪人员工作进度,而这也是团队进步的良好迹象。其他指标的考虑方向是要能够反映内部 SOC 工具的创建、系统优化和其他改进。这些指标可用于评估团队的未来准备情况。
总之,只从单一视角评估 SOC 就只会发现一个需要改进的点。通过精心设计平衡计分卡,我们能够更好地确保对整个 SOC 投入关注与精力。这既有利于眼下的团队管理,也可为未来做好准备。
欢迎访问 IBM 安全专区,获取更多 SOC 运营所需的安全技术。
构建现代化的安全运营中心,IBM Qradar 不可或缺,立即尝鲜 IBM Qradar 社区版,体验全球企业安全的领导技术。
Robert Calvert
IKS Security Focal,IBM
Robert 在 IBM Cloud 负责 Kubernetes 安全角色方面的工作,此前供职于 IBM Security。专业领域包括安全咨询、运营和教育。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。