自 2025 年初以来,人工智能的发展速度令人震撼。企业在广泛采用 AI 时仍面临诸多挑战,包括成本、幻觉、以及安全隐患等问题。
目前,企业正处于重要的十字路口:要么部署 AI,要么被市场淘汰。网络安全供应商则正迎来一个重大机遇——通过保障 AI 安全,帮助企业顺利落地 AI 大模型,从而实现实质性商业价值。
本报告将提供详尽的指导,助力企业在 2025 年安全高效地部署 AI。
一、行动指南摘要
1. 报告概述
2024 年,SACR(Software Analyst Cyber Research)发布了一份关于企业如何保障 AI 安全的深度研究报告。本文是上一份研究的 2.0 版本,结合了过去 8 个月的市场洞察,分析了多个 AI 安全供应商,可帮助企业实现 AI 治理、数据安全和模型保护。
本报告帮助读者深入了解以下关键内容:
2.AI 安全解决方案
研究发现,市场上许多安全供应商的能力存在较大重叠。一些供应商功能较为全面,而另一些则是相对较新的市场参与者。整体来看,三大核心能力尤为突出。
3. 2025年AI发展趋势
当前,企业面临的最显著安全风险与AI大模型相关。SACR 的研究表明,企业 AI 采用率在快速增长,尤其受 DeepSeek R1 等技术进步的推动。
因部署简便,很多企业仍然偏好托管AI 服务。开源 AI 解决方案不断进步,但大多数企业仍倾向于使用闭源模型。企业自托管(Self-hosting)AI 模型的趋势上升,主要是受数据隐私和模型全生命周期完全控制的需求推动。
本报告可帮助安全从业者理解 AI 安全挑战,并掌握市场上的安全解决方案。
4. 企业 AI 安全防护建议
5. 市场分类
根据 SACR 的研究,AI 安全供应商大致可分为两大类。
二、简介
人工智能为企业带来了重大变化和机遇。2023 年,人工智能兴起,一些组织成为早期采用者。2024 年,企业采用人工智能的人数显著增加,但此前观察到的任何情况都无法与 2025 年的浪潮相比。由于安全和隐私风险,许多企业一直犹豫是否采用人工智能。然而,到 2025 年,未采用人工智能的企业将不能再继续保持竞争力。现在到了企业必须积极采用人工智能的时候了。
· 人工智能对企业的好处 – 成本节约和支出:对于许多企业来说,采用人工智能的投资回报主要是成本节约,而不是新的收入机会。预计到 2025 年,企业在人工智能上的支出将增加约 5%。IBM公司表示,该公司计划将其收入的平均 3.32% 用于人工智能——对于一家价值 10 亿美元的公司来说,这相当于每年 3320 万美元。
· 采用人工智能的安全挑战:采用人工智能,无论是 LLM、GenAI 还是 AI 代理,都面临重大挑战。包括 CISO、CIO、数据副总裁和工程副总裁在内的人工智能决策者都对数据安全、隐私、偏见和合规性表示担忧。多起诉讼导致公司因错误实施人工智能而遭受财务损失和声誉受损。例如,加拿大航空的聊天机器人向客户提供了丧亲票价的误导性信息,后来被勒令向客户退款。在另一起案件中,一家韩国初创公司在聊天中泄露了敏感的客户数据,被韩国政府罚款约 9.3 万美元。虽然这些金额看起来像是“轻微”罚款,但情况可能要糟糕得多。2023 年 2 月,谷歌在其 Bard AI 聊天机器人分享了不准确信息后,市值缩水了 1000 亿美元。
知名 CISO 观点:
“这是网络安全首次成为业务驱动力——安全积极支持业务发展。人工智能 (AI) 和大型语言模型 (LLM) 正在改变行业、提高效率并释放新的商机。然而,快速采用带来了重大的安全、合规和治理挑战。组织必须在 AI 创新与风险管理之间取得平衡,确保监管一致性、客户信任和董事会层面的监督。如果没有结构化的安全策略,公司将面临敏感数据泄露、对手操纵和利益相关者信心受损的风险。AI 安全不再仅仅是运营问题;它是一项战略要务,直接影响企业风险、监管风险和长期业务可行性。”
三、2025年企业AI部署现状
1、2025人工智能部署率继续攀升
正如本报告前文所述,企业对 AI 的投资市场正在快速增长。《全球生成式 AI 安全就绪度报告》指出,42% 的企业已在多个业务领域积极部署大语言模型(LLM),另有45% 的企业正在探索AI应用。AI 的采用正在多个行业加速发展,尤其是在法律、娱乐、医疗和金融服务领域增长显著。
根据 Menlo Ventures《2024 企业生成式 AI 现状报告》,行业的AI 相关支出从1亿到5 亿美元不等。报告还指出,企业级生成式 AI 的主要应用场景还包括代码生成、搜索与检索、摘要提取以及智能聊天机器人。
整体来看,企业 AI 采用率持续攀升,目前超过 85% 的企业已在云环境中使用托管或自托管的 AI 解决方案,表明 AI采用率虽然趋于稳定,但仍在增长。其中,托管 AI 服务的使用率已从前一年的 70% 增长至 74%,显示出企业对托管 AI 解决方案的持续青睐。
2、开源 vs. 闭源模型:未来使用将趋平衡
企业最初主要使用闭源模型,但如今越来越多地转向开源模型。Andreessen Horowitz 的《企业构建和购买生成式人工智能方式的 16 项变化》的报告预测,41% 的受访企业将在其业务中增加使用开源模型来代替闭源模型。该报告还预测,如果开源模型的性能与闭源模型相当,另外 41% 的企业将从闭源模型转向开放模型。
开源模型的优势包括由于无许可费用成本较低、全球社区快速创新、定制化和透明度。这有可能推动企业更多地采用。许多最受欢迎的AI技术要么是开源,要么与开源生态系统紧密相关。
在 DeepSeek 引发颠覆性变革后,人们对开源模型的兴趣进一步升温。尽管 DeepSeek-r1 存在许多安全问题,但其性能表明开源模型在性能和成本方面都与闭源模型具有很强的竞争力。
Andreessen Horowitz 预测,未来开源与闭源 AI 模型的使用比例将趋于平衡。相较于 2023年市场80%~90% 由闭源模型主导的情况,市场趋势发生了显著变化。
选择闭源模型的团队通常采用商业授权模式,支付相应费用,并签署协议,确保模型提供商不会将企业输入的数据用于训练。这种模式为企业提供了更强的数据隐私保障和合规性支持。
选择开源模型的团队则需要更加关注 AI 模型生命周期的安全,确保模型能够按照预期输出结果,并且具备较强的抗越狱能力,以防止被滥用或攻击。
3、托管vs自托管:自托管大幅跃升
许多企业都依赖托管 AI 产品(到 2025 年,这一比例将从 70% 增长到 74%),但报告强调,自托管 AI 的采用率大幅上升,同比从 42% 跃升至 75%。这一激增源于嵌入第三方软件的 AI 功能以及寻求对其 AI 部署进行更大控制的组织。向自托管 AI 的转变需要强大的治理来保护云环境。
4、安全影响
企业在 AI 采购和部署方面面临诸多选择,这也涉及 AI 安全方案的采购。首席信息安全官(CISO)更倾向于选择能够在现有架构内运行、无需依赖外部第三方来维护数据隐私的解决方案。同时,CISO 和产品高管希望 AI 安全产品具备可配置性,使团队能够针对不同项目定制检测设置。例如,某些项目可能需要对 PII(个人可识别信息)泄露采取更严格的敏感性控制,而另一些项目则需要加强对有害内容的监控。
归根结底,AI 和模型安全是一个快速发展的领域。CISO、CIO 以及产品和工程负责人普遍强调,AI 安全产品必须具备快速创新能力,以跟上行业发展步伐。首席信息安全官强调,真正的 AI 威胁可能在未来 2~5 年内才会完全显现,因此,AI 安全产品必须持续应对新兴威胁,以确保长期安全性。
四、2025年企业AI开发中的风险与挑战
根据我们的研究,进入 2025 年后,企业面临的风险依然严峻,尤其是在 DeepSeek 等开源模型出现显著进展后。在众多安全框架中,以下三个框架是企业最常用的AI风险分类与评估工具。
1、AI威胁框架
企业面临的AI风险可以分为两个主要领域:
2、围绕 AI 使用、活动和防护措施的安全风险
最近数月,集成Microsoft Copilot、Google Gemini、ServiceNow 和 Salesforce等AI工具的企业遇到重大安全挑战。
主要问题是权限过高,AI助手访问的数据超出了必要范围,导致敏感信息意外泄露。例如,Microsoft Copilot 与 Microsoft 365 的深度集成使其能够聚合大量组织数据。如果权限管理不善,可能会造成安全漏洞。
以下是截至 2025 年发现的突出风险,主要集中在人工智能的使用、数据暴露和政策违规方面。
五、保障企业自研AI应用全生命周期安全
1、AI 全生命周期安全保障不同于与传统软件开发 (SDLC)
确保 AI 全生命周期的安全面临着与传统软件开发不同的独特挑战。虽然、静态应用安全测试 (SAST)、动态应用安全测试 (DAST) 和 API 安全等传统安全措施仍然适用,但AI 开发与部署流程(AI Pipeline)带来了额外的复杂性和潜在的盲点。
在不深入探讨的情况下,其他包括监控RAG访问、治理与合规问题以及运行时安全需求。
2、AI开发生命周期分步说明
人工智能(AI)开发生命周期引入了独特的安全挑战,需谨慎考量。明确构建和开发AI模型的核心步骤至关重要。
3、开发AI 应用各阶段相关的风险
六、现有网络安全控制措施
目前,企业主要采用三种方法来保护 AI 系统。没有一种万能的方法。通常,企业会结合其中2~3种方法来增强 AI 安全性。
1、 模型提供者和自托管解决方案
2、现有的安全控制措施和供应商
3、引入新兴 AI 安全供应商
1、模型提供商和自托管解决方案
此类供应商包括 OpenAI、Mistral 和 Meta 等 AI公司。这些企业在 AI 模型的训练和推理过程中,将安全性、数据隐私和负责任的 AI 保护嵌入到他们的模型中。他们的主要重点仍然是构建最先进、最高效的 AI 模型,而不是优先考虑安全性。因此,许多企业寻求 独立的安全层,以保护在不同环境下运行的所有 AI 模型。
2、传统网络安全防护措施
许多企业已经部署了一定程度的网络安全措施,以保护数据、网络和终端设备。研究发现,缺乏专门 AI 安全解决方案的企业通常依赖现有控制措施。然而,这些措施在 AI 安全领域各有优劣,企业需要充分了解其能力和局限性,以制定有效的 AI 安全策略。
1)网络安全
2)数据防泄漏 (DLP) 和数据安全态势管理 (DSPM)
数据丢失防护 (DLP) 和数据安全态势管理 (DSPM)解决方案旨在保护敏感信息免遭未经授权的访问或泄露。在 AI 系统中,这些工具有助于防止意外或故意泄露个人身份信息 (PII) 或专有业务数据。然而,它们往往无法解决特定于 AI 的威胁,例如通过 API 抓取或分析AI 模型逻辑的复杂性而导致的模型泄露。此外,如果没有 AI 感知策略,这些工具可能无法有效缓解大型语言模型 (LLM) 特有的风险,例如提示词泄漏。
3)云安全 (CNAPP 与 CSPM)
由于 AI 模型经常部署在 AWS、GCP 或 Azure 等云平台上,云原生应用保护平台 (CNAPP) 和云安全态势管理 (CSPM) 工具可以识别错误配置。许多供应商已开始扩展相关功能,以专门检测以云为中心的 AI 模型的漏洞。
4)端点检测和响应 (EDR)
端检测与响应(EDR)解决方案适用于检测恶意软件和传统端点威胁,但它们通常不会监测AI 模型威胁,例如未经授权的推理尝试或旨在提取模型功能的 API 抓取活动。
5)应用安全扫描器 (SAST/DAST)
静态和动态应用安全测试工具能有效评估传统应用程序的漏洞。然而,它们很难评估 AI 模型行为或评估其抵御对抗性攻击(Adversarial Attacks)的能力。目前,一些新兴供应商正在尝试弥补这一缺陷。
6)浏览器安全
浏览器安全措施可以控制 AI 聊天机器人的使用,但它们无助于保护专有 AI 模型本身。这些控制仅限于用户交互层面,并未扩展到底层 AI 基础设施。
传统的安全供应商开始检测 AI 流量和邻接领域。一些供应商已开始将 AI 安全防护功能纳入其产品中。然而,该领域的创新仍然缓慢,这些供应商尚未提供突破性的 AI 安全功能。此外,由于他们涵盖了广泛的安全领域(包括云、网络和端点安全),AI 安全通常只是其产品组合的一个方面,而不是重点。
3、新兴专攻型AI安全解决方案
第三类包括专注于AI安全的新兴企业。这些公司大多聚焦于细分领域的挑战,包括保障AI使用安全,防御提示词注入攻击(Prompt Injection Attacks),识别开源大语言模型(LLMs)中的漏洞。从当前分析可见,AI安全需求迫切且覆盖领域广泛,其问题集合庞杂多样,需在快速演进的生态中持续应对。
七、市场解决方案:如何保障 AI 安全
本部分基于市场研究,概述了企业在 AI 安全方面的关键需求和防护策略。
以下是典型企业 AI 架构的安全概览(假设企业未完全依赖封闭源模型和厂商托管环境)。
1、数据与计算层(AI 基础层安全)。企业需要保护其数据库、数据湖或云存储服务(如 AWS S3)中的数据,并可能已经部署向量数据库。为确保数据安全,应实施严格的数据治理,防止未经授权的数据访问或篡改。
2、AI 模型与推理层(保护 AI 逻辑安全)。企业通常会使用基础模型(Foundation Models)、微调模型(Fine-Tuned Models)(开源或闭源)、嵌入模型(Embeddings)、推理端点(Inference Endpoints)以及AI 代理工作流(Agentic Workflows),这些可以自托管或部署在公共云上。企业必须保障整个AI生命周期的安全,从构建到运行时。
3、AI 应用和用户交互层(保护 AI 使用安全):企业通常会采用AI 助理(Copilot)、自主智能体(Autonomous Agents)或聊天机器人(Chatbots)。企业必须保护提示词安全(Secure Prompting)、实施访问控制(RBAC)以及内容过滤(Content Filtering),防止 AI 生成不当内容或导致数据泄露。
在上述各个层级中,企业应根据自身的 AI 战略,在数据与计算层、AI 模型与推理层、AI 应用与用户界面层选择一到两家专业安全供应商,以全面保护 AI 生态系统。
八、SACR 针对安全 AI 部署的建议
1、AI 数据安全控制
强大的 AI 安全策略离不开稳健的数据安全控制,因为 AI 模型的安全性和可信度取决于其训练和交互的数据。AI 系统引入了与数据访问、完整性、泄漏和治理相关的新风险,这使得数据安全成为 AI 部署的基础要素。在《全球生成式AI安全准备报告》中,受访者(包括首席信息安全官、业务用户、安全分析师和开发者)将数据隐私和安全视为 AI 采用的主要障碍。
Vanta 的信息与合规经理 Adam Duman 指出,人工智能会让现有的安全问题更加严重。如果公司正在构建 GenAI 应用或 AI智能体,他们会希望使用自己的数据,并会考虑可信度、负责任的输出和避免偏见。例如,如果一家公司没有现有的数据治理措施,如数据标记政策,这些问题在 AI 中会变得更加严重。
企业在选择安全供应商时,应重点关注如何在 AI 利用数据之前的每个阶段确保数据安全。关键措施包括:
2 、AI 预防性控制与治理控制措施
组织应采取主动措施保护人工智能。这些关键要素包括:
知名 CISO 观点:
“为了应对这些风险,企业必须为AI集成零信任架构(ZTA),确保只有经过身份验证的用户、应用和工作流可以与AI系统交互(云安全联盟,2025年)。AI数据治理和合规框架还必须与欧盟AI法案和SEC网络规则保持一致,以提供透明度和董事会级别的AI风险管理可见性。通过嵌入AI安全设计,企业可以在保持业务敏捷性和创新的同时,满足监管要求。对于大规模部署AI的企业,主动风险缓解至关重要。实施AI安全物料清单(AI-SBOMs)加强供应链安全,而AI红队测试则在被利用之前识别漏洞。随着AI法规的演变,安全领导者必须投资于持续监控、网络风险量化(CRQ)以及与行业风险管理框架(例如,NIST、ISO/IEC、OECD)合规的一致性,以保持韧性。将AI安全嵌入其核心战略的组织——”
3、AI运行时安全
企业必须为 AI 模型实施运行时安全,在推理和主动部署期间提供实时保护、监控和威胁响应。运行时安全应利用检测和响应代理、eBPF 或 SDK 进行实时保护。运行时是 AI 安全的重要组成部分。在题为“潜伏代理:在安全训练中持续存在的欺骗性 LLM 训练”的论文中,Anthropic 研究人员展示了带有后门的模型在训练和部署中如何故意表现出不同的行为。此类别的 AI 安全供应商可识别带有隐藏后门的模型,并监控传入的提示注入或越狱尝试。这些解决方案还可以检测重复的 API 请求,这些请求表明存在模型盗窃或其他可疑活动。供应商还应针对基于 API 的 AI 服务实施实时身份验证。
可观察性是运行时安全的延伸。目标是让企业捕获AI活动的实时日志和监控,例如捕获推理请求、模型响应和系统日志以进行安全分析。它允许企业在实时中跟踪训练进度和AI响应。可观察性具有两个关键功能:一是帮助团队改进和调试AI聊天机器人,二是能够检测有害或意外的响应——在需要时允许系统抛出异常并提供替代响应。这一领域的AI安全供应商帮助企业有效地调试应用程序和评估响应。从构建到部署的整个生命周期需要持续监督。由于AI的非确定性,即使是强大的安全防护措施也不能保证一致的响应。这些解决方案应与SIEM(安全信息和事件管理)和SOAR(安全编排、自动化和响应)系统集成,以实现实时事件响应和分析。
九、AI 安全市场格局
AI 安全生态系统庞大且充满挑战,AI安全供应商可划分为两个主要类别。
1、员工 AI 使用安全防护:应对企业员工与大模型交互的风险
这一类别的重点在于防止企业因员工使用 AI 工具而面临的安全风险,尤其是针对生成式 AI 应用(如 ChatGPT、Claude、Copilot)。该领域的供应商主要致力于:防止数据泄露、阻止未经授权的访问,以及确保合规性。
其核心功能包括监控 AI 使用情况、实施应用安全策略、内容审核以及AI 专属数据防泄漏(DLP),以避免员工在 AI 交互过程中暴露敏感信息或使用未经批准的 AI 工具。
这一类别的AI安全供应商提供开箱即用和可定制的政策,用于管理允许通过AI应用程序传输的数据。这种方法有时被称为“AI防火墙”, 可作为数据代理层,控制通过API、浏览器或桌面工具传输到 AI 应用的数据。
这些供应商还提供治理控制,以确保企业政策在数据和AI应用训练时得到执行。他们实施基于角色的访问控制(RBAC),以最大限度地减少企业内部信息的过度共享或不足共享,并对 AI 交互内容进行意图分类或归档,以追踪员工如何使用 AI 模型。
2、保护 AI 模型安全:确保 AI 全生命周期的安全性
这一类别的重点是 AI 开发全生命周期安全保护,确保模型在开发、部署和运行过程中保持安全,尤其是针对企业自研 AI 应用。主要包括保护数据集、训练管道和模型免遭篡改, 抵御对抗性攻击,以及降低 AI 偏见带来的风险。
该领域的供应商关注AI 供应链安全、对抗性机器学习防御、模型水印以及运行时监控(Runtime Monitoring),以检测AI应用的漏洞。这些解决方案确保模型输出结果可信、安全,并符合监管的要求。
在该类别中,厂商在以下两个子领域取得了成功:
1)AI模型全生命周期安全防护(Model Lifecycle):这些厂商专注于从开发到运行时的整个生命周期保护 AI 应用,确保 AI 模型、应用及其底层基础设施在全生命周期内的安全性。
2️)AI 应用安全防护(AI Application Security Vendors):这些厂商在传统安全的基础上,针对 AI 独有的安全挑战(如非确定性行为和特殊开发实践)提供增强保护。例如,MLSecOps(机器学习安全运维)旨在优化 AI 安全运营,确保 AI 应用的安全和合规。
十、全球AI 安全供应商概览
1、AI 产品全生命周期安全
Palo Alto Networks
ProtectAI
HiddenLayer
Noma
2、AI数据与 AI 供应链安全
Pillar Security
TrojAI
3、AI应用& 企业助理安全保护
Prompt Security
Zenity
Witness AI
前述市场概览展示了各大安全厂商在 AI 安全领域的产品布局,涵盖了从 AI 开发到运行时保护,再到企业 AI 使用安全防护的全方位解决方案。企业可根据自身 AI 发展策略,选择合适的 AI 安全产品,以确保 AI 应用的安全性、合规性和可靠性。
十一、AI安全行业现状评论
AI 安全市场的供应商数量已经超过 50 家,这种快速增长既带来了机遇,也带来了挑战。从积极角度来看,众多供应商提供了丰富的安全解决方案,让企业能够针对模型保护、运行时安全、合规监控等不同需求选择合适的产品。此外,市场竞争推动创新,促使供应商不断优化产品,并开发针对新兴威胁的专业化解决方案。
市场碎片化也带来了极大的管理挑战,尤其是可能成为首席信息安全官(CISO)的噩梦。
随着市场成熟,供应商整合(并购或关门)可能会成为趋势,导致小型供应商被收购或倒闭,这可能影响企业已部署的安全方案。企业需要在专业化安全解决方案与供应商稳定性之间找到平衡,同时保持灵活的安全战略,以适应不断变化的市场环境。
随着技术进步,人工智能威胁也在迅速演变。微软对100 款生成式 AI 产品的红队测试研究表明,手动设计的越狱(jailbreak)攻击在网络上传播极快,与复杂的攻击方法相比,它们为攻击者提供了更易用、更具成本效益的攻击向量。
2025年2月,“时空盗贼越狱”(Time Bandit Jailbreak)攻击成为一大威胁,甚至影响到了OpenAI的GPT-4o 模型。攻击利用时间线混淆(timeline confusion)和流程歧义(procedural ambiguity)绕过安全防护,使用户能够从模型中提取潜在的有害内容。
随着 AI 能力的扩展,特别是在自主智能体(autonomous agents)和浏览器自动化领域的进步,安全风险也等比例增长。微软在其研究中指出:“任何工具皆可用于善或恶……工具越强大,其带来的益处或危害就越大。” 这一原则推动微软开源AI红队测试工具 PyRIT 的开发,用于识别 AI 系统中的潜在安全漏洞。
预计成熟的网络安全公司将利用对AI安全解决方案日益增长的需求,但初创公司仍有竞争的空间。无论未来的创新AI安全解决方案来自成熟网络安全公司还是新兴企业,最终的赢家将是那些能够持续创新、主动适应新威胁的安全企业。
未来预测
总的来说,这些案例和研究表明,AI 安全并非理论概念——现实中已经发生了从意外数据泄露到 AI 系统漏洞被利用等各种安全事件。幸运的是,在正确实施的情况下,AI 安全解决方案可以有效降低这些风险。同时,市场上也涌现了大量应对这些挑战的供应商和解决方案。
要有效防御这些威胁,企业必须实施贯穿 AI 全生命周期的安全措施——从数据收集、模型训练到部署和监控,确保每个环节都得到充分保护。
展望未来,随着企业不断分享经验、以及行业标准持续演进,AI 安全解决方案的有效性将进一步提升。市场正朝着一个方向发展:AI 在部署时就具备内置的安全性、隐私性和可信性,而不是事后补救。
附录- AI安全产业图谱
展示生成式 AI 攻击面及其全生命周期的AI安全供应商。
关 于 作 者
Software Analyst Cyber Research(SACR):专注于网络安全行业分析的机构,致力于为安全领域的领导者提供深入的行业动态分析和洞察。