过去两年,一个有趣的现象在网络安全圈悄然蔓延:几乎一夜之间,所有安全产品都“学会”了 AI。从防火墙到终端防护,从日志分析到威胁情报,厂商们的宣传页上几乎找不到不带“AI”“大模型”“智能”字眼的产品。然而,当我们把目光投向真实的安全运营现场——分析师仍在凌晨三点被海量告警淹没,SOC 经理仍在为“谁有精力排查这 5000 条误报”而头疼,甲方安全团队仍在质疑“这 AI 到底帮我们做了什么”时,一个问题浮出水面:到底有多少产品是真正在用 AI 解决安全问题,又有多少只是在“蹭概念”?
市场在“狂奔”,伪 AI 在“狂蹭”
先看一组数据,理解为什么 AI 安全市场如此火热。根据多家市场研究机构的统计,全球网络安全 AI 市场规模预计从 2025 年的约 350 亿美元增长至 2026 年的 429 亿美元,复合年增长率超过 22%。IDC 的预测更为乐观,预计 2026 年全球安全总支出将突破 3000 亿美元,其中 AI 驱动的统一安全平台和相关服务是核心增长引擎。Gartner 的调查数据显示,42% 的组织正在试用或已经使用网络安全 AI 助手,另有 46% 计划在未来一年内启用。
市场热度自然吸引了大量厂商涌入。但问题也随之而来:“AI”变成了一个万能的营销前缀,真正的 AI 能力却被稀释在了口号里。
所谓“伪 AI”,在网络安全领域大致有几种典型形态:
第一类是“套壳 AI”——把第三方大模型的 API 接进来,在界面上加一个对话框,就宣称产品“AI 赋能”。 用户在对话框里问一句“最近有什么威胁”,系统调用 GPT 或文心一言返回一段通用回答,但并未与安全数据、检测引擎产生实质性联动。这种“AI”的尴尬在于:它可以帮你写一段威胁描述,但不知道你的网络里究竟发生了什么。
第二类是“旧酒装新瓶”——把原本基于规则或传统机器学习的功能重新包装成 AI。 很多安全产品多年来一直使用统计模型、签名匹配、行为分析等技术,这些本身就是“人工智能”广义范畴内的方法。但当厂商把所有统计分析都贴上“AI 大模型”标签时,用户很容易被误导——以为自己买的是前沿技术,实际上得到的还是十年前那套东西。
第三类是“实验室 AI”——技术很炫酷,但落不了地。 有些产品确实集成了大模型能力,但缺乏与真实安全场景的深度耦合。比如,可以自动生成一份漂亮的威胁报告,却无法帮助分析师快速判断“这条告警到底要不要处理”;可以说出攻击手法的技术原理,却无法给出“在你的环境里,下一步应该怎么做”的可执行建议。
这种“伪 AI 泛滥”的现象并非网安圈独有——AI 热浪席卷各行各业时,类似的“概念通胀”几乎成了标配。但网络安全行业的特殊性在于:这里不允许“差不多就行”。一个误判可能导致真实的安全事件,一次“幻觉”可能让安全团队在错误的方向上白费功夫。网安领域的 AI,需要的是“能打”,而不是“能吹”。
真 AI vs 伪 AI:差距到底在哪?
要识别“真 AI”和“伪 AI”,可以从几个关键维度来审视:
第一,AI 是否与安全数据深度融合? 真正有价值的 AI 安全产品,绝不是简单地把用户问题转发给大模型然后返回答案。它必须建立在安全厂商自己的数据底座之上——千亿级的威胁情报 IOC 库、海量的攻击样本、真实的攻防演练数据。没有这些“养料”,AI 模型即使再大,也无法理解网络安全的“语言”。比如,一个真正有效的 AI 检测引擎,需要基于数百万个真实钓鱼邮件样本、高对抗恶意软件变种和加密流量行为进行训练,而不是拿公开数据集跑几轮就上线。
第二,AI 是否解决的是“真问题”? 伪 AI 往往选择那些“看起来炫酷但实际价值有限”的场景——比如自动生成冗长的威胁分析报告,却没有人真正会读。而真 AI 瞄准的应该是安全团队每天都在头疼的刚需:如何从每天几十万条告警中找出真正需要处理的那几条?如何识别那些传统规则库永远追不上的新型攻击?如何让经验不足的初级分析师也能做出高质量的研判?这些问题如果 AI 不能解决,再漂亮的功能都是花架子。
第三,AI 能否量化地证明效果? “提升检测效率”“降低运营成本”这类模糊表述是伪 AI 的护身符。真正有价值的 AI 产品必须有可验证的量化指标——比如,0day 漏洞检出率从多少提升到多少,钓鱼邮件检出精准率达到 99.9% 以上,告警调查时间缩短了百分之几十。这些数字不能是实验室里的“理想环境”数据,而必须是真实客户场景中跑出来的。
第四,AI 是否具备自主决策和行动能力? 这可能是最关键的区分点。Gartner 在 2025 年技术成熟度曲线中,将 AI SOC 智能体置于“期望膨胀期峰值”,同时提醒市场:目前的大多数方案仍然“未经充分验证”。真正的 AI 安全产品正在从“告诉人类发生了什么”进化到“自动判断并采取行动”——发现威胁后自动隔离、识别漏洞后自动生成修复方案、感知异常后自动调整防御策略。这种从“辅助驾驶”到“自动驾驶”的跨越,是区分真假 AI 的分水岭。
真正有价值的 AI 安全产品,具备哪些核心特征?
基于当前行业领先厂商的实践和技术演进趋势,我们可以勾勒出一幅“真 AI 安全产品”的能力画像:
1. 安全垂域大模型:不是“通用 AI+安全”,而是“安全原生 AI”
通用大模型虽然在语言理解和生成上表现出色,但它们不懂 0day 漏洞、不懂 APT 攻击链、不懂加密 Webshell 的通信模式。真正有效的 AI 安全产品,必须基于安全垂直领域的大模型构建——从底层架构上深度融合威胁检测、安全运营、攻防对抗等专业知识。
以深信服的安全 GPT 为例,该模型经过 9 年迭代,已发展至 4.0 版本,深度整合了千亿级 IOC/域名库和 55 万+安全设备的云端数据,每日贡献 3100 万+企业级情报样本。这种“数据-模型-场景”的深度耦合,使其在高对抗钓鱼邮件检测中,将检出率从传统方案的 15.7% 提升至 95.4%,误报率降至 0.046%。在 0day 威胁检测场景中,无先验规则的情况下检出率达到 87.24%。这些数字背后反映的是:真正的 AI 安全能力,来自对安全场景的深度理解和长期打磨,而非一蹴而就的 API 调用。
2. 从“辅助”到“主导”:AI 正在重塑安全运营流程
过去几年,AI 在安全领域扮演的角色大多是“辅助工具”——帮分析师查资料、写报告、做总结。但真正有价值的 AI 产品正在从“辅助驾驶”走向“主导防护”。
2026 年 2 月,Anthropic 发布了 Claude Code Security,这款安全智能体能够通过语义理解分析代码逻辑,在真实环境中发现了 500 多个此前未被识别的高危漏洞。Google 和 OpenAI 也早在 2025 年就推出了类似的安全研究智能体,应用于漏洞识别、代码审计和漏洞验证等场景。IBM 发布的网络安全助手基于 Watsonx 平台构建,能够自动处理高达 85% 的告警,并将客户公司的告警调查时间缩短了 48%。
这种趋势意味着:AI 不再仅仅是分析师手边的“查询工具”,而是成为安全运营流程中的“协作者”甚至“运营者”。IDC 在《中国网络安全技术前瞻》报告中指出,网络安全技术正呈现出明显的“All in AI”趋势,安全智能体有望替代部分传统安全产品。当然,这并不意味着人类安全专家将被取代——当前主流的 AI 安全产品仍然保留人工审批机制,因为在风险决策、责任归属和异常处理方面,人类的判断仍然是关键环节。
3. 全链路 AI 安全防护:从“保护 AI”到“用 AI 保护 AI”
随着大模型和 AI 智能体在千行百业的规模化落地,一个新的安全挑战浮出水面:AI 系统本身正在成为攻击目标。 360 发布的《大模型安全白皮书》系统性地归纳了威胁大模型的五大关键风险:基础设施安全风险、内容安全风险、数据与知识库安全风险、智能体安全风险以及用户端安全风险。
面对这种多维复杂态势,真正有价值的 AI 安全产品必须同时具备“保护 AI”和“用 AI 对抗 AI”的双重能力。IDC 在《中国安全智能体,2026Q1》报告中明确指出:用 AI 对抗 AI、用 AI 防护 AI,已成为未来大模型安全、智能体安全防护的重要思路与必备能力。
悬镜安全发布的“问境 AIST”平台是一个典型的例子——该产品直击 Agentic AI 全生命周期过程中的原生安全风险,提供覆盖 AI 模型扫描、AI 代码安全护栏、AI 智能红队渗透与 AI 供应链安全情报预警的一体化能力。它引入了全要素资产指纹识别技术,能够精准捕捉隐藏在项目中的本地或远程模型调用,并构建 AI 软件物料清单生成与分析能力。
这种“以 AI 治 AI”的思路,正是未来 AI 安全产品的核心发展方向:攻击者用 AI 自动化攻击,防御方就必须用 AI 自动化防御——速度和智能的对抗,已经无法靠人工来弥补。
回归本质:AI 安全产品的价值如何衡量?
在“伪 AI”泛滥的市场环境中,甲方用户如何判断一款 AI 安全产品的真实价值?几个可操作的评估维度或许值得参考:
一看数据资产。询问厂商的训练数据来源、规模和质量。没有真实海量安全数据支撑的 AI,就像没有燃料的发动机。
二看场景深度。要求厂商展示 AI 能力在具体场景中的表现,而非泛泛而谈。能否给出“在你的行业、你的环境中”的可参考案例?能否在 POC 测试中用真实流量验证效果?
三看量化效果。拒绝“提升”“改善”“增强”等模糊表述,要求厂商提供可验证的量化指标。检出率提升了多少?误报率降低了多少?响应时间缩短了多少?这些数字必须来自真实客户环境。
四看人工协同机制。真正的 AI 产品不会宣称“完全替代人类”,而是清晰地界定 AI 做什么、人类做什么。一个成熟的产品应该展示其人工审批、异常处理和反馈学习的完整闭环。
结语:泡沫之后,谁在裸泳?
网络安全 AI 市场正处于 Gartner 技术成熟度曲线中“期望膨胀期”的顶峰,泡沫和炒作不可避免。但随着市场逐渐成熟,那些没有真实技术底座的“伪 AI”产品必将被淘汰。
真正有价值的 AI 安全产品,其核心竞争力不来自“说了什么”,而来自“做了什么”——是否真正降低了安全运营的复杂度,是否真正提升了威胁检测的准确率,是否真正帮助安全团队从告警疲劳中解放出来。
对于安全厂商而言,与其把精力花在包装“AI 概念”上,不如沉下心来打磨数据底座、深耕安全场景、提升模型能力。对于甲方用户而言,在评估 AI 安全产品时,保持一份清醒的怀疑、多问几个“凭什么”、用真实数据说话,或许是穿越泡沫、找到真金的最佳方式。
当潮水退去,真正有价值的 AI 安全产品,一定是那些在“概念”之前就把“效果”做到极致的产品。
参考文献
1. GII Research,《2026年全球安全领域人工智能市场报告》,2026年3月。
2. GII Research,《2026年全球网络安全人工智能市场报告》,2026年3月。
3. IDC, Global Security Spend to Exceed $300 Billion in 2026 as the Adoption of AI-Driven Security Platforms Gains Momentum, March 2026.
4. Gartner, Hype Cycle for Security Operations 2025,2025年。
5. 安全客,《All in AI:企业必须关注的7个网络安全技术发展趋势》,2026年3月。
6. 深信服,《2026全球AI安全企业实力榜》,IT之家,2026年1月。
7. C114通信网,《2026国内网络安全前沿AI技术大盘点》,2026年1月。
8. 360数字安全集团,《大模型安全白皮书》,2025年11月。
9. 安全客,《智能狂奔遇上安全掉队:2025年AI安全十大事件深度盘点》,2025年12月。
10. 悬镜安全,《问境AIST首发|直击Agentic AI全生命周期原生安全治理》,安全客,2026年3月。
11. 奇安信,《IDC最新报告:奇安信领跑“AI+安全”双赛道》,2026年3月。
12. 全国网络安全标准化技术委员会(TC260),《人工智能安全治理框架》2.0版,2025年9月。
13. Gartner, Predicts 2025: Navigating Imminent AI Turbulence for Cybersecurity, February 2025.
14. 绿盟科技,Dive into NSFOCUS LLM Security Solution, Security Boulevard, 2025年9月。
15. OWASP, OWASP Top 10 for LLM Applications 2025, 2025年。
16. 生成式AI安全测评基准数据集1.0,中国网络空间安全协会,2025年9月。
夜雨聆风