根据 Informa TechTarget 旗下 Enterprise Strategy Group 的年度支出意向研究显示,无论是单独还是与生成式 AI (GenAI) 结合,网络安全都主导着 2025 年企业 IT 投资计划。
这项基于全球 1,351 名 IT 和商业专业人士回应的研究发现,网络安全投资超过所有其他类别,同时 AI 和分析领域也呈现显著增长趋势。在接受调查的组织中(其中 28% 来自 EMEA 地区),大多数预计在 2025 年将维持或增加所有主要技术类别的支出,其中网络安全最可能获得支出增长,其次是客户体验和应用程序开发。
约四分之三的 EMEA 和北美受访者表示,2025 年的整体 IT 投资将较 2024 年有所增加。这项研究在第三季度进行,正值许多组织制定下一年投资计划之际。
生成式 AI 与网络安全竞争投资重点,而安全领域也越来越多地应用生成式 AI。数据管理作为相关领域,生成式 AI 在其投资中占据领先地位。
在商业计划方面,网络安全 (整体 49%) 远超其他领域,包括降低成本 (36%)、改善数据分析和商业智能 (35%) 以及提高业务工作流程自动化 (35%)。网络安全在 EMEA (44%) 和北美 (51%) 均排名第一,这可能预示着 EMEA 的发展方向。在商业计划中,"提高应对网络攻击的运营韧性"在北美为 29%,EMEA 为 28%,几乎持平。
在年度最重要的 IT 计划中,加强网络安全工具和流程以 27% 的总体比例 (EMEA 25%,北美 30%) 遥遥领先,其次是 AI 和机器学习的应用 (16%),以及利用数据分析获取实时商业智能和客户洞察 (14%)。
在网络安全领域,调查显示零信任网络访问 (ZTNA) 将成为 2025 年组织在云安全投资中的首选。防火墙(包括下一代防火墙)是网络安全投资的首要目标,而多因素认证则是身份相关安全技术的重点。
在云投资规划方面,受访者将 ZTNA 视为 2025 年最重要的云安全投资之一 (2025 年 48% 相比 2024 年 41%)。其次是云数据安全和数据丢失防护 (38%),以及应用程序接口 (API) 安全 (37%)。
根据研究报告作者 Bill Lundell 和 Christian Perry 的观点,近年来 API 使用的增长支持了现代应用程序并连接各种系统和服务,这加强了这一关注点。这是因为依赖 API 的微服务生态系统复杂且难以完全确保安全。
AI 的整体崛起十分显著,将 AI 视为对其未来显著重要的技术计划的组织数量激增(今年 44% 相比去年 28%)。它现在与网络安全 (59%) 和云计算 (38%) 并驾齐驱。
Lundell 和 Perry 表示:"随着 AI 发展势头强劲,组织正迅速将预算集中在生成式 AI 技术上,以加速自动化并消除其 IT 和业务环境中几乎所有元素的效率低下问题。"
生成式 AI 作为重要支出目标持续上升,53% 的组织计划在 2025 年进行投资(高于 2024 年的 46%)。
在信息管理领域,生成式 AI 相比其他技术在投资目标中的主导地位,清楚地表明组织正在优先考虑该技术,而不受其现有 AI 战略的影响。53% 的组织计划在 2025 年对数据管理领域的生成式 AI 进行投资,高于 2024 年的 46%。
好文章,需要你的鼓励
DeepResearchGym是一个创新的开源评估框架,专为深度研究系统设计,旨在解决当前依赖商业搜索API带来的透明度和可重复性挑战。该系统由卡内基梅隆大学研究团队开发,结合了基于ClueWeb22和FineWeb大型网络语料库的可重复搜索API与严格的评估协议。实验表明,使用DeepResearchGym的系统性能与使用商业API相当,且在评估指标间保持一致性。人类评估进一步证实了自动评估协议与人类偏好的一致性,验证了该框架评估深度研究系统的有效性。
这项研究介绍了FinTagging,首个面向大型语言模型的全面财务信息提取与结构化基准测试。不同于传统方法,它将XBRL标记分解为数值识别和概念链接两个子任务,能同时处理文本和表格数据。在零样本测试中,DeepSeek-V3和GPT-4o表现最佳,但在细粒度概念对齐方面仍面临挑战,揭示了当前大语言模型在自动化XBRL标记领域的局限性,为金融AI发展提供了新方向。
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。