中国存储网消息,Check Point 发布了针对私有 AI 基础设施的 AI 工厂安全架构蓝图,称其为一种经过验证的设计,涵盖从硬件到应用的安全领域。

该蓝图面向围绕GPU集群、训练系统、推理工作负载和专有模型构建私有AI环境的组织。随着私有AI基础设施支出的增加,这些环境变得更加暴露,而安全设计也难以跟上部署步伐。
该蓝图作为人工智能数据中心的参考架构而非单一产品,涵盖四层:边界安全、应用及大型语言模型保护、基础设施安全,以及工作负载和容器控制。
在网络边缘,设计采用了Check Point Maestro超大规模防火墙,实现零信任网络访问、分段和策略执行。该层旨在管理来自外部用户、互联网站点和企业网络进入AI环境的南北向流量。
在应用层,该架构使用 Check Point AI 代理安全技术来保护推理应用程序接口和大型语言模型端点。这些工具旨在应对提示注入、数据外泄、对抗性查询和API滥用,Check Point认为这些问题并未被传统Web应用防火墙完全覆盖。
基础设施安全基于通过NVIDIA DOCA软件平台与NVIDIA BlueField数据处理单元的集成。这使得防火墙和威胁防御功能能够直接部署在基础设施层,检测流量并应用安全控制,而无需消耗用于AI工作负载的CPU或GPU资源。
对于工作负载和容器,设计依赖于与第三方微分段产品的集成。此举旨在限制 Kubernetes 集群内东西向的移动,并在问题蔓延至推理环境前隔离被攻破的容器。
上升暴露
此次发布反映了企业寻求对人工智能系统托管和管理方式有更多控制权的更广泛转变。许多企业正在将敏感的人工智能工作转移到私有环境中,以保护知识产权、解决数据主权规则或降低公有云成本。
这一转变带来了新的安全需求。AI环境结合了GPU服务器、数据湖、编排工具和推理接口,方式不同于传统企业基础设施,为训练数据污染、模型盗窃、供应链破坏以及工作负载间横向移动等攻击创造了漏洞。
Check Point表示,其框架遵循AI系统设计上应具备安全的原则。实际上,这意味着从一开始就将安全控制集成到底层的结构、硬件和编排层,而不是在系统上线后才添加。
公司还将蓝图与治理和合规要求相结合,表示该架构对应NIST人工智能风险管理框架和Gartner AI风险管理协议,同时支持欧盟人工智能法案、GDPR、HIPAA、PCI-DSS和ISO 42001相关的政策执行和审计要求。
这种合规重点很可能会引起在受监管领域构建内部AI平台的公司共鸣,因为在这些领域,数据流的可追溯性和控制可能与模型性能同等重要。安全供应商越来越多地将人工智能保护视为不仅是网络问题,更是治理和运营风险挑战。
全球有超过10万个组织使用Check Point产品。随着客户寻求保障模型训练、推理及其支持基础设施的方法,公司一直在扩大对人工智能安全的关注。
Check Point首席产品官Nataly Kremer表示:“人工智能基础设施已成为企业中最有价值且最脆弱的资产之一。”
“AI工厂安全蓝图正是我们帮助组织保护这些投资的方式——不是事后补充,而是从基层,贯穿整个投资体系的每一层,”克雷默说。