“要培育产业内需增长新动能,提升创新和供给能力,就要改变过去网络安全零散发展的模式,必须以甲方视角、从信息化角度,用面向规划的内生安全框架,指导政企机构体系化的网络安全规划建设。”奇安信集团总裁吴云坤在出席第二十四届软件博览会“软件之夜盛典”时如是表示。

11月12日,第二十四届软博会作为全国唯一、历史最长的国际软件盛会,在杭州正式开幕。当晚,奇安信集团总裁吴云坤应邀出席“软件之夜盛典·高端对话”,与金蝶副总裁陈启发、亚信CTO欧阳晔、网易副总裁汪源、利时科技副总裁何春明等嘉宾,围绕“数智转型,共话创新”这一主题展开对话。

吴云坤表示,当前随着新技术的发展和应用,尤其是以工业互联网的应用,工业生产网络面临着新的安全风险,如IT/OT的网络融合,原来封闭的生产网络、业务系统向外界打开;网络、应用、数据环境有了更多的暴露面;工控网络的先天脆弱性、防护手段落后和运维缺失带来的安全风险。
“工业互联网的安全防护要改变之前的建设模式,从‘零散建设’走向‘全局建设’,实现体系化的安全防护,从‘头痛医头、脚痛医脚’的事后补救模式,转变到事前防控模式,从而彻底、全面地安全解决问题。”吴云坤称,奇安信基于长期实践打造的内生安全框架,就是实现事前防控模式的最好方法。
今年8月,奇安信基于内生安全理念,结合系统工程思想与EA方法进行网络安全规划设计,正式推出了内生安全框架,旨在推动不同工业场景的安全体系规划、建设和运行,实现安全与工业场景的信息化和业务系统融合内生,从而全面满足新技术场景下的工业互联网和工业生产网络的安全保障需求。在这个过程中,安全与工业互联网的技术、数据和人员的全面融合,构建起基于内生安全的新一代工业互联网安全防护体系。
内生安全框架一经推出,便成为行业热点。作为立足解决十年到二十年网络安全体系的一个标准型框架,内生安全框架如何推动网络安全产业发展,亦成为行业普遍关注的焦点。
吴云坤称,网络安全行业经历了过去二十多年零散发展,远远落后于体系化发展的信息化,与信息化发展不匹配,不仅仅是安全能力达不到要求,还有规模落差、成熟度落差和覆盖面落差。因此无法支撑数字化、智能化时代的信息化保障,同时也带来了网络安全产业发展自身的诸多问题,比如小规模、零散化、同质化。
吴云坤认为,要培育产业内需增长新动能,提升创新和供给能力,就要改变过去网络安全零散发展的模式,必须以甲方视角、从信息化角度,用面向规划的内生安全框架,指导政企机构体系化的网络安全规划建设,从过去局部整改为主的外挂式建设模式走向深度融合的体系化建设模式,使之能够输出体系化、全局化、实战化的网络安全能力,以“内生安全”理念建立数字化环境内部无处不在的“免疫力”,构建出动态综合的网络安全防御体系。在这个过程中,通过规划、建设、服务等扩大网络安全预算,进而提升网络安全产值。
“内生安全框架具有集约化和工程化的特点,更符合我国政企机构通过开展五年规划来集中力量办大事解决大问题的成功做法。”吴云坤呼吁,网络安全产业应抓住新基础设施、数字化和‘十四五’规划的机遇,满足甲方信息发展保障的需要,依托内生安全框架,通过同步规划、建设和运营,实现整个网络安全生态和信息化的深度融合,促进产品厂商和技术创新厂商的共同发展,进一步扩大网络安全产业的规模,为中国信息安全产业的发展提供更多空间。
据悉,本次“软件之夜颁奖盛典”由中国电子信息行业联合会、浙江省经济和信息化厅、杭州市人民政府主办、中国电子信息产业集团,国家工业信息安全发展研究中心、杭州市经济和信息化局、杭州高新技术产业开发区管委会、滨江区人民政府以及奇安信集团承办。
好文章,需要你的鼓励
国际能源署发布的2025年世界能源展望报告显示,全球AI竞赛推动创纪录的石油、天然气、煤炭和核能消耗,加剧地缘政治紧张局势和气候危机。数据中心用电量预计到2035年将增长三倍,全球数据中心投资预计2025年达5800亿美元,超过全球石油供应投资的5400亿美元。报告呼吁采取新方法实现2050年净零排放目标。
维吉尼亚理工学院研究团队对58个大语言模型在单细胞生物学领域的应用进行了全面调查,将模型分为基础、文本桥接、空间多模态、表观遗传和智能代理五大类,涵盖细胞注释、轨迹预测、药物反应等八项核心任务。研究基于40多个公开数据集,建立了包含生物学理解、可解释性等十个维度的评估体系,为这个快速发展的交叉领域提供了首个系统性分析框架。
AMD首席执行官苏姿丰在纽约金融分析师日活动中表示,公司已准备好迎接AI浪潮并获得传统企业计算市场更多份额。AMD预计未来3-5年数据中心AI收入复合年增长率将超过80%,服务器CPU收入份额超过50%。公司2025年预期收入约340亿美元,其中数据中心业务160亿美元。MI400系列GPU采用2纳米工艺,Helios机架系统将提供强劲算力支持。
西湖大学王欢教授团队联合国际研究机构,针对AI推理模型内存消耗过大的问题,开发了RLKV技术框架。该技术通过强化学习识别推理模型中的关键"推理头",实现20-50%的内存缩减同时保持推理性能。研究发现推理头与检索头功能不同,前者负责维持逻辑连贯性。实验验证了技术在多个数学推理和编程任务中的有效性,为推理模型的大规模应用提供了现实可行的解决方案。