7月4日,由全球数字经济大会组委会主办、中国信息通信研究院承办的2025全球数字经济大会数字生态建设专题论坛在北京举行。腾讯云李滨代表团队做了主题分享,深入解析大模型面临的安全风险与技术挑战,并系统分享构建与AI共生的智能安全防护体系的实践路径与策略。
大会同步公布中国信通院2025年度第二期“磐安”优秀案例遴选结果。凭借创新技术架构与实战成效,腾讯云以NDR产品能力为基础打造的态势感知全流量检测与响应项目案例,获评综合领域优秀案例,成为数字生态安全建设的标杆实践。
随着AI技术的发展,机器已经能够超越图灵测试的标准,开始以更加人性化的方式与用户进行交流。以大模型生成技术为核心的人工智能正逐渐成为推动经济增长的新引擎,为解决各行各业的痛点提供了创新的解决方案。AI技术作为新的生产驱动力,正引领企业数字化转型进入“大模型时代”。
但 AI 热潮背后,黑灰产暗流涌动,从个人隐私、企业资产到交通医疗等关键领域,AI 安全防线正面临系统性冲击。腾讯云安全总结了大模型企业应用十大常见安全风险,涵盖样本投毒、提示词注入攻击、第三方代码或开源模型带来的供应链风险,以及自动化Agent权限滥用、模型推理被劫持等新型AI应用威胁。这些风险贯穿于企业应用大模型的各个环节,构成关键挑战。李滨指出,大模型安全风险并非孤立存在,而是从数据采集、处理、模型训练、部署到最终应用的整个AI技术生命周期中端到端传导的。
面对AI赋能的攻击新范式,传统安全防御体系已显乏力,构建适应AI时代的新型防御体系,已成为数字安全领域的当务之急。面对大模型的安全挑战,腾讯在大模型的应用覆盖了从底层技术研究、企业服务到终端应用的全链路的解决方案。依托于腾讯在大模型上的“全局视角”,腾讯安全建立了一套系统性的框架,对整个人工智能以及大模型的安全进行完备的风险分析,通过业务流和技术栈两个维度,来分析人工智能在本体安全、运行环境和基础设施,应用环境中和应用环境周边发生的一些风险缺陷。
在风险控制框架之下,腾讯也建立了大模型相关整体安全治理架构,从数据采集、模型训练、代理部署到业务应用的全流程,均满足监管要求,为企业提供安全、可控、可靠的服务。
围绕大模型生命周期各阶段风险,腾讯构建了包含五大重点的大模型安全防护整体架构,针对性制定安全防护措施与策略:一是聚焦边界API与用户输入输出安全,通过安全管控机制防范该边界的注入攻击等风险,防止不当内容的输入输出及数据泄露;二是强化模型基础设施安全防护与态势管理;三是实施智能体行为与意图安全管控;四是加强智能体与MCP的身份及特权防护;五是推进数据安全全流程治理。
在模型应用边界安全方面,基于行业痛点腾讯研发LLM-WAF大模型防火墙。LLM-WAF提供多模型、多场景、高并发环境下的全链路防护能力,支持实时检测并拦截针对大模型的算力滥用、提示词攻击及数据泄露风险,助力企业构建可信、稳定、可持续的大模型服务生态。
在大模型安全态势管理方面,腾讯推出AI-SPM大模型安全态势管理产品以应对大模型专项安全治理场景。该系统通过网络扫描和主机端检测,提供资产识别、风险检测、攻击示警等核心能力,帮助用户进行大模型安全专项治理,保护大模型基础设施运行环境,及时发现和处置安全风险。
在数据与内容安全上,数据层面是基于腾讯混元大模型,围绕大模型的生命周期,根据不同阶段的风险制定对应安全防护措施,通过数据分类分级、动态脱敏等技术保障数据安全;内容安全上则是借助天御内容风控平台,从大模型内容安全综合防控,接口输入、内容预处理、模型识别、策略辅助、平台调度分析、人工标注运营6个维度为大模型的训练和推理提供有效支撑。
在攻防对抗与情报方面,腾讯云安全建立了大模型安全Red Team对抗机制,基于腾讯安全专家服务团队,建立针对大模型的安全测试方法,主动发现大模型及生态存在的(漏洞)风险,持续验证大模型应用的安全有效性。同时,在合法合规标准方面,腾讯云安全也积极参与大模型相关标准的制定工作,如参与起草《生成式人工智能应用安全测试标准》和《大语言模型安全测试方法》国际标准等,依托自研大模型混元为企业保驾护航。
腾讯以全局视角和实战经验为基础,围绕大模型全生命周期构建起系统性安全治理框架,并通过LLM-WAF、AI-SPM、Red Team机制等核心技术手段,推动防护能力向纵深演进。
未来,腾讯将继续携手各方力量,持续完善大模型安全标准与防护能力,共筑可信、可控、可持续的AI安全防线,让人工智能真正成为驱动社会进步的可靠引擎。