生成式AI正以前所未有的速度改变人们的生活与工作方式,ChatGPT、Claude、DeepSeek、Gemini等工具正在被广泛用于内容撰写、数据分析、代码调试等工作。据第三方数据显示,2025年1—3月,中国人工智能类App使用总量快速增长,其中DeepSeek的月使用次数从约3亿次跃升至22.8亿次,豆包从18.4亿次增至32.9亿次。这一波“全民AI”热潮不仅显现出强烈的生产力需求,也让企业面临新的安全与合规挑战。麻省理工学院Nanda项目的研究显示,约90%的员工在使用AI工具时并未告知IT部门,这使得企业在市场运营中,不得不面对全新的安全挑战。
AI使用如何透明可控
生成式AI的普及,让企业IT面临前所未有的“黑箱风险”,员工正在大规模使用ChatGPT、Claude等工具,但企业往往缺乏可视化与管控手段。对此,Check Point推出了GenAI Protect 解决方案,通过浏览器安全扩展实现对AI使用行为的全面可视化与风险治理。
该方案能够帮助安全团队了解员工正在使用哪些AI服务、输入了哪些提示内容,以及这些交互是否涉及敏感数据。系统会对所有AI会话进行风险分级(低、中、高、严重),并识别常见使用场景,如文档摘要、内容生成、代码调试或图像创作等。
这类可视化数据不仅能让企业看清AI的真实使用情况,还能转化为制定安全策略的依据。例如,企业可根据部门或业务线,配置差异化的访问与分享策略;也可针对敏感数据类型设定自动阻断与预警规则。GenAI Protect的核心价值在于将“未知风险”转化为“可管理策略”,帮助企业从被动防御走向数据驱动的策略化安全治理。
AI与SASE的融合:统一架构下的智能防护
随着AI应用深入业务流程,传统的边界安全模型已无法应对分布式、跨云的访问需求。Check Point SASE(安全接入服务边缘)解决方案为应对AI带来的挑战,在今年进行了数次重大升级,构建了覆盖云端、终端、分支与应用访问的完整SASE体系;并以 ThreatCloud AI 作为核心威胁情报引擎,实现从边界防护到用户访问的全栈防御。
同时,Check Point GenAI Protect 作为专门面向生成式AI使用安全解决方案,与ThreatCloud AI保持实时联动。它能够基于同一情报源识别异常提示语、检测潜在数据泄露行为,并将分析结果反馈给威胁情报中心,更加智能的帮助用户实现主动安全的防御策略。
从试点到体系化:以真实数据驱动AI安全战略
MIT近期研究指出,全球企业在AI上的投资已超过400亿美元,但95%的AI应用试点项目未能进入生产阶段。核心原因在于缺乏真实使用数据与风险评估机制。未改变这一现状,企业用户可以借助Check Point GenAI Protect,主动识别员工最常使用的AI场景(如合同审查、文档总结、代码生成等),在了解真实行为的前提下制定可落地的安全政策。
这也意味着,AI安全管理不再是“静态防御”,而是一种“持续学习”的过程。通过SASE架构与AI可视化技术的结合,企业能够在保护敏感数据的同时,支持创新场景的安全落地,实现“安全促进创新”的良性循环。
AI带来的变革不止于生产力,更在于企业安全思维的转变。面对快速增长的生成式AI使用需求,企业需要一套能够实时感知、智能决策、统一管控的安全体系,这将成为企业在AI时代保持核心竞争力的安全基石。
