前几天在一个微信群里忽然收到这样一条消息,“分析:女秘书等行政工作最有可能被AI取代”,结果群里有的人非常不认同。然而在我看来,秘书是不是会被AI取代我不清楚,但下一个被GPT等全新AI技术取代的工作很有可以是网络工程师。至少现在在网络安全领域中,已经有了非常明显的迹象。
前几天参加微步在线的安全发布会,曾经非常有感触地发了一个朋友圈,感慨GPT在安全圈的普及速度。而GPT在网络安全领域的普及意味着什么呢?从微步在线创始人兼CEO薛锋的发言中,我们可以看到一些端倪。
薛锋认为,当前国内网络安全在攻击技术和需求侧发生新变化,网络安全模式和产业出现相应新特征,网络安全建设和运营从基础建设和合规导向逐渐过渡为效果导向,网络安全技术、产品和解决方案注定要走向自动化、云化、实战化和订阅化;但无论网络安全的需求和模式如何变化,安全运营始终保有其第一性原理,安全从业者要拥抱新技术、应对新变化,需要处理好风险、资产、威胁等网络安全运营三要素,不断探索大数据、威胁情报、AI大模型等新技术在网络安全运营中的落地应用。
此外,薛锋还展示了微步多项AI技术以及时下热门的“安全GPT”初步应用成果。他透露,目前微步的机器学习技术已经成熟应用于文件查杀等领域,如对Windows环境的PE文件和Linux环境的ELF文件进行查杀,检出率可达97%—98%,同时误报率低至0.005%和0.002%。同时,薛锋对安全GPT技术的应用前景表示了极大的认可,“安全GPT这一技术能够极大提升安全分析师、安全运营人员的工作效率,我们演示的只是不到1/10的安全GPT,大模型在安全的应用是一场万里长征,目前才刚刚开始。”展望安全GPT的未来,薛锋认为数据、情报和AI技术会极大提升网络安全运营的自动化、实战化能力,助力网络安全运营从“辅助驾驶”走向“自动驾驶”时代。
随后微步的技术人员向我们展示了如何利用GPT技术高效的发现并定位威胁,并且能自动地进行处理。而GPT的这一系列操作,是以前的一个专家级网络安全人员才可以胜任的工作。换句话说就是GPT技术的出现,让以前极其专业的网络安全工作,变得“白菜化”了。这就意味着,以往网络安全专业性的壁垒正在被GPT给打破,以前需要高薪聘请专业安全人员才可以胜任的工作岗位,现在可以被一个GPT的安全应用所替代。以前是遍寻安全人才而不可得,现在是装上GPT安全应用,你就是专业人才。
而这也就是我判断未来网络工程师将会被GPT取代的主要原因。因为和千变万化的网络安全相比,网络管理工作就变得单调了很多,问题点更容易查询,而解决方案也更加系统和成熟。只需要对这些成熟的解决方案数据进行训练,就可以很容易地生成相应的GPT模型,并通过语音、文本甚至视频等多种方式,方便被用户调用。用户也就可以更加容易,甚至是在不具备专业网络专业知识的情况下,对网络进行部署调试。当然也可以更进一步地利用例如微步在线类的安全GPT对网络安全问题进行解决。
所以在这里才会得出“下一个被GPT取代的工作会是‘网工’”的结论。当然,就像开头争论的秘书工作可以让GPT取代,秘书的工作岗位是不是会取消一样,网工的工作被GPT取代,也并不意味着网工的工作岗位会消失。计算器、财务软件再先进,也没有取代了会计。相反正是因为使用门槛的降低,让其在更多地方实现普及。“网工”也是一样,毕竟工作总要有人来做,GPT再先进也是需要人来操作。只不过操作的门槛会大幅度降低,可以有更多人来从事以前只有专业人士才可以胜任的工作而已。未来随着GPT将网络专业技术壁垒的破除,网络也将进入更多的传统企业之中,让其充分感受到数字化所带来的魅力。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。