New Relic 已将其可观测性平台扩展至 DeepSeek,帮助企业简化使用开源大语言模型开发、部署和监控生成式 AI 应用的流程。
随着 Gartner 预测到 2026 年将有超过 80% 的企业会使用或部署生成式 AI 应用,此举正是为了满足企业在日益复杂的 AI 领域中的迫切需求。
New Relic 首席执行官 Ashan Willy 表示:"在当今竞争激烈的环境中,组织面临着做出明智 AI 实施决策的压力。可观测性通过提供 AI 技术栈的全面可视化来解决这一问题。我们正在扩展平台以支持使用 DeepSeek 构建的 AI 应用,使企业能够自信地决定部署哪些 AI 模型以及如何最有效地使用它们。"
Willy 补充说,DeepSeek 的成本效益模型与 New Relic 在可观测性和应用性能监控 (APM) 方面的专业知识相结合,可以为企业在快速发展的 AI 市场中提供显著优势。
New Relic 与 DeepSeek 的集成扩充了其拥有超过 60 个 AI 集成的生态系统,包括最近新增的 Nvidia Inference Microservices (NIM) 和 Amazon Bedrock。该平台还支持与 OpenAI、Claude、Langchain 和 Pinecone 等主要 AI 参与者的集成。
AI 应用带来了技术栈复杂性、安全性问题和潜在成本超支等挑战。New Relic 的 AI 监控提供了 AI 技术栈的全面概览,在遵守数据隐私要求的同时跟踪吞吐量、延迟和成本等指标。它还跟踪服务和模型之间的请求流,以提供对 AI 应用运作机制的深入洞察。
在开源模型如 DeepSeek 带来新的安全风险的同时,对可观测性能力的需求也在不断增长。
Sophos 全球首席技术官 Chester Wisniewski 表示:"DeepSeek 的可访问性使得善意用户和恶意行为者都能够进行探索。与 Llama 类似,其防护机制可以被很大程度地移除。这可能被网络犯罪分子滥用,尽管需要承认运行 DeepSeek 需要大量资源。"
Wisniewski 还强调了由于 DeepSeek 的成本优势而预期的广泛采用可能带来的隐私风险:"对于公司来说,进行全面的风险评估至关重要,包括可能整合 DeepSeek 或任何未来大语言模型的产品和供应商。他们还必须确保拥有做出明智决策所需的专业知识。"
Keeper Security 的首席执行官兼联合创始人 Darren Guccione 呼应了这些担忧,敦促企业仔细评估风险,特别是当这些平台在监管环境较不透明的情况下运营时。
Guccione 说:"保持对供应商合规性的可见性同样重要。确保供应商遵守认可的安全认证,如 SOC 2 (系统和组织控制 2) 和 ISO 27001,表明他们致力于健全的安全实践和监管合规。这些认证可以确保供应商维持高标准的安全性,包括遵守国际法规。"
他补充道:"培养一个知情和警惕的工作场所可以显著降低风险。教育员工了解外部平台的潜在风险并强调网络安全最佳实践,使组织能够安全地在不断发展的 AI 领域中前进。"
好文章,需要你的鼓励
尽管近年来女性在科技行业的地位有所提升,但在争取 IT 领导职位时仍面临诸多障碍。本文探讨了女性在职场晋升过程中遇到的8大主要障碍,包括入职门槛高、刻板印象、孤立感、能力被质疑等,并提出了一些应对策略。文章呼吁业界需要更多关注和支持女性,消除性别偏见,为女性创造公平的发展环境。
随着AI技术的发展,企业和个人用户越来越倾向于使用多个AI模型和工具。这一趋势源于单一AI模型难以满足多样化需求,专业化AI可以在特定领域发挥更好的效果。多模型组合不仅可以提高性能和效率,还能避免对单一供应商的依赖。然而,管理和协调多个AI也带来了新的挑战。
HPE第一财季业绩受到多重因素影响:客户等待采购搭载NVIDIA新一代GPU的服务器,竞争对手激进定价导致服务器利润下滑,库存问题也影响了运营收入。为应对挑战,HPE计划裁员2500人,并采取多项措施提升效率。尽管AI服务器订单强劲,但短期内仍面临收入和利润率压力。HPE预计下半年AI服务器收入将回升,第四财季服务器业务运营利润率有望恢复到10%。
当前,AI模型的推出速度令人眼花缭乱,从谷歌等大型科技公司到OpenAI和Anthropic等初创企业都在不断推出新模型。跟踪最新的AI模型可能会让人感到不知所措。AI模型通常根据行业基准进行宣传,但这些技术指标往往无法真实反映人们和公司如何实际使用它们。为了帮助读者理清思路,TechCrunch汇总了自2024年以来发布的最先进的AI模型概述,包括如何使用它们及其最佳应用场景。我们也会持续更新这个列表,添加最新的发布信息。