Jeetu Patel在采访中表示,网络安全将逐渐成为人权问题。
思科安全与协作执行副总裁Jeetu Patel表示,在各类组织当中建立一定程度的网络安全措施,将很快成为人权问题。
Patel在RSA大会演讲前接受采访时表示,“划定安全「贫困线」,保证每个人都能得到一定程度的安全保障,这最终会成为一个人权问题。而维护人权也是每一位公民的义务。”
他解释道,“毕竟这涉及到关键基础设施——金融服务、医疗保健、交通、供水、供电等等。这些服务一旦曝出事故,日常生活就会立即受到干扰。”
而关于网络安全贫困线(所谓贫困线,就是为那些预算或人力资源水平达不到最低标准的个人或机构提供基本安全措施)的想法,是由思科首席信息官官(CISO)Wendy Nather在此前的RSA大会上最先提出。
Patel认为,划定并确保所有企业都身处安全贫困线以上,是一件非常重要的保障性工程。毕竟随着软件依赖性、数据共享、混合工作方式的快速普及,人们和组织之间的联系正变得愈发紧密。
他解释道,“我们生活在一个整体生态当中,其中最薄弱的环节可能会破坏掉整个链条。某家小型供应商遭到攻击,很可能导致汽车制造商的整个生产线陷入瘫痪。”
所以在Patel看来,“每个人都无法置身事外,每个人都是内部人士。”
如果我们不关照安全贫困线以下的人,那么即使我们身在贫困线以上、部署了一切必要手段来保护自己,则仍然无法保障安全
他认为,物理和软件边界已经无法将组织内外的人员和信息明确区分开来。随着越来越多人员和设备同传统企业边界之外的端点连接并共享数据,潜在的攻击面也随之迅速扩大。
Patel表示,“如果我们不关照安全贫困线以下的人,那么即使我们身在贫困线以上、部署了一切必要手段来保护自己,则仍然无法保障安全。”
要想在组织内建立可靠的安全协议,必须要有充足的预算来购买产品、聘请具备威胁防御能力的安全专业人员。然而,思科安全业务部高级副总裁Shailaja Shankar发现企业影响力在安全领域同样产生了“富者恒富”的马太效应。
她在采访中表示,“在这样一个相互关联的系统当中,身处贫困线以上的大型组织能够跟供应商谈下很好的条件。但对于小规模公司,谈判进程就会步履维艰,导致供应商给什么、你就只能接受什么。”
事实上,一直有声音指责网安行业对于众多组织低于安全贫困线的现实负有责任。首先就是互联网的高度互联互通之下,很多组织根本没有做好准备。复杂性也是大问题:随着安全架构的演进,其复杂度也在快速提高。
思科的各位高管们也承认,供应商社区确实产出了大量互操作性不佳、或者根本无法兑现其保护承诺的产品。
同样的,要想收拾好这个烂摊子,也离不开各方间的协同努力。首先就是由身负专业知识的安全供应商,以捐赠和合作等方式共享威胁情报。
为此,Shankar称思科的Talos威胁情报团队已经在24/7全天候为乌克兰关键基础设施客户提供安全产品服务,并向这个饱受战争蹂躏的国家免费提供云安全产品。
她同时提到,思科也是网络威胁联盟的创始成员。“我们与全球30多家不同安全供应商合作。我们彼此共享威胁情报,共同保护客户并捍卫整个数字生态系统。面对共同风险,我们需要共同防御。”
Patel则强调,目前的商业模式也需要做出转变。“人们需要逐步把保护区间从单一组织层面,转移到整个供应链层面——不再自说自话,而是放眼于整个生态系统。”
通过延伸,未来网络安全供应商应该为非营利性组织和非政府组织提供免费、或者低成本的安全服务,大企业也可以利用自己的强劲购买力帮助小型机构改善自身安全状况。
Patel总结道,“这些当然不可能一夜之间就落实到位,但这种观念已经开始深入人心、改变人们的想法。是的,一家小型供应商生产的小部件在100美元的产品总成本中可能只占7美分,但曝出的漏洞却可以瞬间摧毁整个生产线。面对如此深远的影响,考虑到系统性恶意攻击可能带来的数十亿、千亿甚至万亿美元级别的损失,我们必须改变已经习以为常的这一切。”
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。