5月18日,在“超越想象”山石网科容器安全发布会上,山石网科正式发布云安全新品——山石云铠。至此,山石网科云计算安全版图补全“容器安全”板块,已完成目前主流虚拟化技术及云服务场景网络安全产品的全面覆盖。
山石网科云安全业务群总经理余滔表示,山石云铠同时符合容器业务运维习惯和传统安全运维习惯,具备容器镜像风险管理、资产与业务可视化、进程与网络访问控制能力,山石网科可以将其与原有云安全产品深度整合,为用户提供国内首个闭环的容器安全解决方案。
超越想象,云原生安全防护正当时
作为中国云安全领域的先行者,山石网科早在2013年便开始布局云计算安全。近年来,随着云计算的快速发展,容器技术进入了人们的视野,并因其轻量化、开发敏捷性和可移植性等特点,逐渐为更多的企业采用和部署。据赛迪研究院统计预测,2019-2022年容器云平台市场规模将以超过100%增长率爆发式增长,行业渗透也将从互联网向更多的传统行业,如金融、政府、电信等行业扩展。
随着越来越多的用户采用容器技术构建业务,容器和容器编排平台的安全漏洞也不断被黑客挖掘出来,针对容器业务的攻击事件逐年增多,容器安全成为用户采用容器技术构建业务过程中必须要考虑的问题。
容器技术的全新架构,却使得传统的云安全解决方案难以适用。容器业务涉及持续运营,与传统网络安全相比,容器安全的防护范围需要前移、粒度更细。据Gartner的分析,在容器的开发、部署、运行的全生命周期中,存在11层的潜在攻击面。在当前主流的行业标准和安全指南中,也反复提到开发安全、镜像安全、运行时安全等层面的问题。
山石网科针对客户的实际使用场景,基于对云安全技术的前瞻性预研,结合容器技术最新的发展方向,发挥自身的研发优势,推出了全新的容器安全系统——山石云铠(CloudArmour)。
山石云铠 :先看清 再管控
基于“先看清,再管控”的理念,山石云铠以镜像、应用、网络、集群四大分类梳理容器云环境中核心资产信息,实现分类管理,并实时同步k8s资产数据的变化。此外,山石云铠具备丰富的容器镜像漏洞管理功能,通过对宿主机内的镜像扫描和对仓库镜像的扫描,实现全域资产可视化。
在应用和网络安全层面,山石云铠部署在节点中的安全服务容器具备防火墙能力,适应容器平台各种CNI类型,实现从应用外的网络连接和访问控制,到应用间、容器间的访问控制全覆盖,助用户掌握容器云网络东西/南北向行为。山石云铠还会对运行时的行为进行监控,从进程、网络服务、文件操作、系统指令四个维度行为建模,对应用的活动展开行为模型自学习,根据活动模型配置安全策略,告警/拦截越权行为。
山石云铠采用全分布式架构,遵循云原生的运维习惯,将安全服务容器分散部署到各个容器计算节点内,提供本地化容器安全防护能力,提供一致性的运维体验,节约算力,构建全方位、零打扰、一站式容器安全服务系统。
补全版图,可持续安全运营落地云端
山石云铠的发布,进一步完善了针对客户云原生安全需求中的一环,可以与山石云·界、云·格、云·集、云·池等产品一道,为客户提供针对公有云、私有云、混合云的云安全方案。
在云原生领域,DevOps把开发和运营结合起来,关注持续运营。对云原生安全,亦是如此,云铠产品在设计之初就考虑到静态安全与动态安全结合,把安全能力与服务结合,轻量灵活,持续迭代,这是可持续安全运营在云安全领域的实践。
从云平台大边界,到租户小边界,再往内深入,到虚机容器的微边界,山石网科为客户提供从大到小、由外往内的虚拟化纵深化防御能力。从网络安全,到应用安全与数据安全,再到主机安全与安全管理平台,山石网科为客户提供由浅入深的业务纵深防御能力。再结合威胁情报与大数据分析,山石网科可以为客户提供全方位云计算安全方案,支撑客户云业务的可持续安全运营。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。