目前,针对工业互联网的安全攻击事件频发,总体安全形势不容乐观。从攻击侧看,商业利益诉求和恐怖破坏目的交织,国家级攻击和网络犯罪交错,攻击呈现出多样性趋势,而攻击理论和手段也日臻成熟。
工业互联网的安全现状
目前来看,部分工业企业的安全建设重视程度不够,投入不足,导致工业生产系统在“触网(IT与OT融合)”后,变得更加容易遭受攻击。很多现实案例都表明,当某一天突然发生的严重网络安全事件,造成对生产的严重影响,企业才发现网络安全建设是如此重要。
另一方面,近些年尤其是今年以来,越来越多的工业企业遭受到了定向勒索攻击,这表明针对工业企业的定向攻击愈加频繁,过去零散的、被动的安全建设思路已经无法满足当前的安全需求,需要从顶层视角,统筹建设积极主动的工业互联网安全体系。
在此种安全的大背景下,奇安信工业互联网安全事业部产品总监王弢表示“工业互联网还处在发展初期,安全管理水平和安全防护水平相对较差,同时安全防护难度也相对较高。”具体表现在:
第一,漏洞数量多、级别高、风险大。截止到2021年6月,中国国家信息安全漏洞共享平台(CNVD)收录的与工业控制系统相关的漏洞高达3099个,中高危漏洞占比高达94%。
第二,数据开放度高、流动性强,加剧泄露风险。5G边缘计算中心通过API接口开放给第三方应用,让工业互联网数据在不同应用间共享,这大大增加数据传输和存储的安全风险。
第三,APT针对性强、破坏性大,威胁工业活动。工业互联网直接关系到生产和经济活动,成为了APT攻击的重点目标。
第四,企业"内鬼"层出不穷。FBI和CSI等机构报告显示,超过85%的网络安全威胁来自内部,危害程度远超黑客攻击和病毒造成的损失。
另外,王弢认为,“5G和万物互联等新技术让工业互联网将面对更多的攻击入口。新的技术架构和人工智能应用也会让攻击造成的后果更加严重。但同时,也应该看到这些新技术同样可以应用于保护工业互联网的安全应用场景中。”
与传统安全相比,工业互联网安全其实存在很多差别。对此,王弢指出,“一是防护对象扩大,安全场景更丰富。二是连接范围更广,威胁延伸至物理世界。三是网络安全和生产安全交织,安全事件危害更严重。”
何种安全理念与技术对工业互联网更加适用
王弢认为,单纯从技术角度考虑,任何能够提升工业互联网安全防护能力的技术都适合应用在工业场景中,但工业生产的场景错综复杂,任何新技术的应用都需要搭配业务场景,否则只能是“一具空壳”。
从这个角度来看,王弢认为,内生安全框架和公共服务具有非常强的普适性。
将内生安全防护框架与工业互联网企业安全建设同步规划、同步建设、同步运行,建立全面覆盖的工业互联网安全能力体系,将能力“调用”到工业互联网信息化体系当中,实现网络安全能力与工业信息化环境的融合内生。此外,全面覆盖行业业务场景,从应对局部威胁和合规点的建设模式,走向以能力为导向的建设模式,关口前移,构建工业互联网的“内生安全”能力。
工业互联网安全公共服务能力建设可以解决中小型工业企业在工业互联网安全维护和运营方面普遍面临无组织、无人员、无技术能力的困境,工业互联网安全企业可以采用安全上云上平台的方式加强安全能力。公共服务可为工业企业提供基于SAAS的安全运营服务,帮助自身安全能力有限的工业企业发现安全问题,并进一步加强安全防护建设,实现供需快速精准对接。
工业互联网安全市场未来可期
在王弢看来,未来针对工业互联网细分领域的创新特色产品和解决方案将会陆续涌现出来,行业集中度也将进一步得到加强,服务+产品的模式将更能得到用户的认可。
同时,王弢也指出,目前整个工业互联网行业还处于发展初期阶段,产品的同质化问题比较严重,正迫切需要创新,需要从需求侧和供给侧一起发力,提升整个行业发展水平。根据奇安信的调研显示,目前绝大多数企业对工业互联网安全的投入仍然处于一个较低水平,但占整体工业互联网的投入比例并不低。近日,工信部印发《网络安全产业高质量发展三年行动计划(2021-2023年)》(征求意见稿)中提出:到2023年,网络安全产业规模超过2500亿元,年复合增长率超过15%。可以想见,随着工业互联网的发展和大规模应用,相应的安全产业将有着非常广阔的市场空间。
王弢最后讲到,“机会总是留给有准备的企业。长路漫漫,任重道远。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。