AI驱动安全的机遇和陷阱

AI驱动安全,10年前就曾经是一个热门话题;23年在LLM的推动下,又重新掀起了一番热潮。 回望过往,国内网安行业曾经在AI技术上全球领先,而如今我们看到确实另一个景象,就如CrowdStrike凭借AI能力构建的终端防御能力已经全方位超越传统安全技术,彼此之间已经是质的差别。

当前LLM的浪潮,对于安全企业是机会也是陷阱。抓住机会就能够脱颖而出,掉入陷阱就不仅浪费了资源,也是浪费了时间。结合过往的经历以及当下领先公司的现状,发现有两类问题是投入AI技术方向是最容易出问题的地方:

  1. 确定需要解决的问题:人们经常混淆“可以用AI做的事情”与“需要用AI做的事情”,在攻击成功的成本相对防御已经很低的时候,尤其需要区分这种差别,把资源聚焦在真正需要AI解决,并且AI能够很好解决问题的地方。
  2. 如何构建完整的系统:无论从产品或者攻防对抗那个角度去看,AI在网络安全中虽然可以解决很多问题,但单独使用AI技术时会存在一些不足之处,需要在技术运营流程、产品架构中整合更多的技术元素使之更为完善。

下面就以Crowdstrike为例展开谈谈对这两个问题的理解。

聚焦最关键的场景是成功的前提

即使不考虑当前大火的LLM,AI在网络安全中的应用场景已经非常广泛,可以说在网络安全中的任何一个环节,都可以利用AI来尝试解决问题。下图就是整合不同厂商、安全机构形成的一个比较全的全景图画:

也就是说AI在网络安全中的应用场景,至少可以达到数十种之多。 数目虽然众多,但是每个场景本身的价值不同、场景中已有技术存在的问题不同、AI可以解决的问题的程度也是不同的,需要基于这三个因素来衡量哪些是值得优先投入的。

于很多人的直觉相反,Crowdstrike选择的关键场景不是EDR、而是AV,也就是一般说的恶意软件防御。从当前看到的公开资料,可以认为CrowdStrike在AI领域的绝大多数投资以及技术进展,均来自于恶意软件防御领域。下面从三个因素出发看看它为何会做这样的选择:

  • 场景价值:从攻防对抗角度,防御是建立威胁狩猎/主动检测的基础,如果大量低价值攻击穿过防御机制需要主动检测/狩猎来解决,那资源压力必然使整个体系崩溃。防御必须更多的依赖自动化能力,可以抵御绝大多数的攻击,在此基础上威胁狩猎才有可能。从产品市场角度,绝大多数客户首先需要的是一个好的杀毒软件,可以抵御绝大多数的恶意文件类攻击,事实上即使是大企业,对于终端安全软件的选择标准,从安全能力角度第一位要考虑的应该也是杀毒能力(整体而言部署的简单、稳定、性能影响小,应该同样重要),EDR相关的能力排在其后。到当下为止,终端杀毒可能依然是网络安全中市场份额Top3以内的产品类别。
  • 既有技术的困局:更多的恶意软件变形技术、更多的定向攻击,使恶意软件的数量呈指数级增长,在这个背景下传统规则的方式(无论是特征规则或者启发式规则)难以应对,必然出现大量的漏报问题。同时规则方式运营的压力会越来越大,其中也会出现很多流程、人为疏忽等造成的问题,一条错误规则的发布,有可能会影响到数百万甚至更多主机的可用性和稳定性。
  • AI解决问题程度:AI模型天生有更强的泛化特性,使其可以更有效的应对变种以及新的恶意软件。同时基于AI模式相较启发式规则,在特征向量上可以高出数个数量级,更多角度的特征可以保障提供更精准的检测能力。在现实中,训练良好的AI模型的恶意软件检测效果,已经非常明显的优于传统方式,无论在误报率、漏报率上都是如此。

CrowdStrike正是因为做好了基于AI模型的恶意软件防御,才能在大客户市场和微软这样捆绑销售的高手较量并且胜出,同样可以在中小客户市场去替代Mcafee、赛门铁克、趋势等传统AV市场的龙头。

成功的AI应用依赖系统化方法

大方向的正确是成功的前提,但还远远不够。对于CrowdStrike而言,如何在AI技术的驱动下,真正取得远超传统AV厂商的安全效果是一个更大的挑战。网络安全中对AI有一定了解的人都知道,使用AI的方法存在多种挑战需要解决,误报率、漏报率和可解释性是其中最关键的部分。

漏报/误报问题

从本质上讲,误报和漏报是一体的,在没有足够多维度信息做充分条件判断时,就需要在误报和漏报中间寻找平衡点;另一个问题在于攻击者往往会发明新的攻击技战术方法,客户的业务环境也可能随着数字化进展而不断变化,这也会造成检测能力上的挑战。Crowdstrike使用了数种方法来应对挑战:

  • 首先AI检测模型依赖的数据,不再是单纯的静态数据,而是包括了和进程相关的更多行为和上下文数据;它也不再是对某个文件或者进程的单次分析,而是跟进其行为的持续分析,直到能够有较充分的信息来判断其是否恶意,同时还根据进程相关信息进行实时防御动作。AI分析所依赖的数据维度较早期的AI模型有更大幅度的扩展,使其可以精准的检测离地攻击、无文件攻击等传统AV难以防御的攻击技术。
  • 其次模型运营流程中其确保有人不断分析检测的内容,主要针对模型相似度度量以及可识别的样本,找到可以扩充标记数据库的样本,从而持续改进,最大限度的降低误报率和漏报率;
  • 最后Crowdstrike充分理解AI基于之前攻击样本的学习形成的检测模型,是有可能被攻击者采用新创造的TTP绕过的,因此其在整个能力运营中也非常关注将威胁狩猎相关工作整合到整体流程中,通过狩猎活动来发现当前AI模型所不能看到的攻击行为,尽快的通过模型迭代升级来填补可能存在的空档。

Crowdstrike 通过静态+行为+上下文方式引入更多的分析维度;通过必要的人工运营介入保障少量、高质量的训练数据;并且通过威胁狩猎等专家手段不断发现模型的不足之处,使其在AI对抗恶意软件方向上遥遥领先于其他厂商。其公司总结其经验称——CrowdStrike的重点不只是精选数据及训练最佳模型,而是创建收集数据并生成高质量模型的流程,并以自动化方式执行此操作 。

可解释性

可解释性上Crowdstrike的做法曾经被多次分析过,它融合了几种不同的解释方法,以满足各种检出情况、各种相关人员的需要:

  • 文件信誉: 针对典型的恶意文件可以给出具体的病毒种类、家族名称等信息;
  • 情报上下文: 提供使用相关攻击工具、技战术的攻击团伙、恶意软件家族的信息,可以了解攻击目的、攻击者能力等,对最终确定事件性质/等级很有帮助;
  • 沙箱动态执行摘要: 提供相关恶意软件在主机上的具体恶意行为序列,让响应者对其具体危害、行为方式有更详细的了解,在必要情况下可以基于此确定更详细的响应动作。

通过整合这三种可解释性信息,其NGAV在可解释性上不但不弱于传统基于规则的AV厂商,而是极大程度的超出了。

综上,CrowdStrike的成功更多是其从系统的角度去看待AI技术,而不是单独依赖AI做一个功能模块,也没有将AI模型开发等同与传统的软件功能开发。它更重视通过多种技术的融合达到更好的安全效果,更注重整体能力运营流程的搭建以及自动化,而这些是很多厂商容易忽视的地方。

结语

上面的认识都是基于传统AI技术的应用形成的,并不涉及LLM领域。在过去一年中,已经看到LLM在很多ToB应用上也取得了明显的进展:

  • Github copilot 在开发人员中获取到相对一致的好评,极大提升了工作效率;
  • Google和Meta 利用LLM使其广告业务更加有的放矢,保障了其关键业务的发展;
  • Palantir 利用GenAI的人机交互特型,简化了其分析平台的使用难度,使其可以更快速、更大规模的推广其产品;
  • Perplexity 整合搜索能力以及LLM的语言理解、翻译和总结能力,提供了一个颇具吸引力的知识搜索、学习平台。

网络安全中LLM注定也要发挥重要作用,但当前的进展看似都还不明显。也许2024年能够看到更多。其中关键的场景会在哪里——代码理解能力带来的恶意脚本分析能力?交互形式改变带来的培训、使用成本降低?亦或是数据总结/标记能力带来的更自动化的数据分类分级…….

但无论如何,它应该是一个普遍场景下的关键难点,同时详细在具体解决问题我们依赖的也不仅仅是大模型技术本身。让后续的发展来验证这两个关键点是否还依然有效吧。

来源:ZenMind

上一篇:为数据泄露担责,这家关基企业总裁宣布引咎辞职

下一篇:防范企业内部安全威胁的7种“武器”