大模型技术迅猛发展,智能体应用加速落地,人工智能已然成为生产模式重构和生产力增效的核心驱动。但就如同历史上所有创新都是一体两面,大模型在产业中的深度应用既能提质增效,建立新动能;又有可能因为大模型的特性,放大数字风险的危害性、对抗性和伪装性。
智能时代安全防护如何与时俱进?产业需要什么样的安全底座?完善的AI安全体系有哪些组成?未来又会如何演变?10月15日,腾讯云发起“大模型与智能体时代安全底座的重构与云生态的协同进化”深度对话,中国信息通信研究院云计算与大数据研究所开源和软件安全部副主任卫斌,电子科技大学信息与软件工程学院副研究员、硕士生导师曹明生,腾讯云安全总经理苏建东齐聚直播间,共同探讨数字安全的新态势、新底座和新实践。
AI安全新态势
“牵一发”易“动全身”
大模型与智能体加速了AI技术与产业的结合,也将系统安全、信息安全、内容安全甚至决策安全暴露在更多的风险中。卫斌提到,AI安全相关政策已逐渐规范落地,治理体系逐步构建完善,体现出发展与安全并重的治理理念,比如今年8月国务院发布《关于深入实施“人工智能+”行动的意见》,将安全管控作为与创新发展并列的核心原则。
同时,AI安全治理的态势也在发生变化。曹明生表示,传统安全更多关注网络安全、信息安全,风险主要来源于攻击漏洞后的获利行为。因此,安全产业对应产品偏重于单点应对、系统防护和事后修补;而大模型时代下的安全更关注认知安全,风险会影响内容、决策甚至AI应用,因此产业会更加注重一体化防护,防止认知被篡改或者被窃取。
腾讯作为具备大模型和智能体全链路能力的企业,对此有着深刻体会。苏建东指出,腾讯在行业实践中发现,当下企业面临的安全风险是多元、复杂的,既有传统网络安全风险,也有大模型带来的底层系统重构、AI伦理和道德、内容安全等风险,以及企业构建知识库产生的数据泄露等风险。苏建东强调,表面上看数据泄露、内容安全与传统风险非常相似,但内核成因发生了很大变化,对防护技术提出了新要求。
苏建东还认为,AI时代安全防护最大的痛点在于“未知”,大模型作为新兴技术,在不断演进迭代的过程中会产生新的漏洞,比如微软今年推出的Copilot就发生重大数据泄露漏洞,带来业内从未见过的攻击模式,此外攻击者也会利用大模型来提升对抗性,产生更快速的攻击,单纯依靠人工很难实现全面防护。
卫斌也提到,当前标准化体系建设与技术迭代的推进节奏,可能尚未完全跟上实际需求,这可能会使得部分企业在安全防护的认知深化与准备工作上有所不足,进而对整体安全能力的提升形成一定影响。曹明生对此补充道,技术和标准协同演进存在不匹配的现象亟待解决:首先是标准制定有周期性,但技术多变影响标准落地;其次是行业不同导致场景不同,但标准往往追求普适性,“我们建议在整体行业规范的基础上,再面向不同领域、不同类型的企业进行细化。”
产业安全能力要与时俱进
打造全周期全链条防护
明确了痛点和挑战之后,如何打造适配大模型与智能体时代的安全底座?
苏建东透露,腾讯云在实践中采用网关形式,来为应用运行、对外交互进行“把关”,具体而言要具备三大核心能力:
第一是包括统一身份、访问控制、审计等通用能力,使得所有对接的Agent或后端大模型都有一个统一的身份认证,进行风险控制的对接,确定安全后再对外提供服务。
第二是对输入的控制能力,比如在输入方对提示词进行相应内容的检查、控制,确保没有一些恶意的内容输入到后端,诱发prompt注入、伦理、越狱等风险。
第三是输出的内容控制,比如防止涉政涉恐涉暴涉黄,以及伦理和偏见的内容的输出,以及敏感数据的泄露等。
曹明生也认为,安全的智能底座可以理解为一个智能安全的操作系统,要从三方面去构建:一是模型本身的安全,在模型和智能体上做好管理和监控,还涉及云、容器、数据、网络等安全环境;二是对交互的检测能力,在大模型使用的过程中,实时收集行为和反馈,进行风险防范;三是对大模型进行管控约束,防止权限突破或越界行为。
体系构建是提升
整体安全能力的“大前提”
同时,安全底座需要构筑成熟的标准体系,既便利能力互认,也能从整体上提升安全能力,在数字技术的长链条上减少漏洞和死角。
“不能只盯着单一的环节来补漏洞,其实这是一个‘远古’的做法,需要采用全生命周期覆盖、跨场景下的系统标准构建。”卫斌透露,在AI云安全领域的实践过程中,中国信通院逐步探索构建起一套覆盖事前主动嵌入、事中实时检测与事后精准溯源相结合的标准化体系。
体系构建涉及底层技术、通用能力、智能体、开发平台等多方面,曹明生认为,如果标准制定太粗,企业很难准确找到技术实现的路径,但如果标准太细,又会影响企业创新,因此要分通用模块、行业模块甚至细分领域去制定标准,来寻找技术创新和安全合规之间的平衡点,同时也要鼓励企业积极参与。
在企业实践层面,苏建东也提出,内容安全和数据合规构成了安全的底线思维,然后才能在此基础上考虑行业的特定要求。比如互联网公司普遍使用SaaS化大模型,更关注本地个人隐私数据是否泄露,而金融行业要求数据严格不出域,需要在本地部署大模型,行业监管的差异,也造成了对安全需求的不一致性。这些细微之处,反而往往隐藏着较大的风险,去要企业及组织系统、全面的认识和排查潜在风险,对应建立体系层面的制度和能力。
安全生态要纳入链条各方
进行通力合作
由于数智技术覆盖广、链条长,构筑安全底座生态,需要更多角色参与,让云厂商、行业用户、标准机构以及企业参与其中,承担各自的责任,如果仅靠单一方面主导,容易形成生态封闭的问题。
曹明生强调,构筑安全生态需要基础设施方即云服务厂商、大模型服务商或供应商、AI应用厂商、高校院所和科研机构多方参与,推动安全相关知识纵深发展。卫斌也分享,为助力 AI 安全领域发展,信通院正积极联合云厂商、互联网厂商、行业用户及安全厂商等多元主体,持续推进产业生态的搭建与完善,共同推动 AI 安全能力的提升。其中,腾讯是安全生态的重要构建者之一,带来大量技术输出和案例实践。
苏建东表示,腾讯积极参与信通院的标准建设,开源大量大模型核心源代码,并且构建AI组件库,长期跟踪漏洞并披露给相关企业,腾讯还在内部设立“红队”对业界各个大模型进行测试和攻防,及时找出隐藏的风险。
同时,AI原生安全日益为产业所重视,腾讯在该方面也进行了深入探索。在DevSecOps方向,腾讯引入大模型降低代码检测的误报率和漏报率,实现更好的安全左移,提前发现漏洞;在安全运营方向,Agent已经能实现自动化的SOC分析、告警、对策、审批,以及对漏洞扫描报告的审查、检测、评定、修复等,充分体现AI原生安全带来的提效作用。
曹明生也认为,AI原生对安全技术范式带来三大变化:
静态往动态的变化,传统安全以利用规则、利用经验的静态安全为主,而AI可以通过环境、经验、数据找到细枝末节,进行动态的主动防御。
挖掘线索能力更强,AI可以不断从环境中捕捉风险特征,通过强化学习图神经网络,挖掘特征之间的关系,寻找潜藏的风险。放大AI的两面性,大模型和智能体的滥用,也会不断产生新问题,需要进一步加强数据全生命周期的管控,引导AI向善。
智能体普及催生新安全技术
让企业拥抱AI更“稳”
产业对AI安全的需求,推动安全厂商推出新式安全产品,例如大模型防火墙、大模型安全围栏等,随着智能体更加普及,又会催生哪些新的安全技术?
曹明生重点提到了三大方面,首先是智能体的认证和管理,但智能体调用非常频繁,需要研究更加轻量级的认证协议;其次是对智能体行为的安全管理,监控它对资源和数据访问的过程;再次是建立智能体黑/白名单机制,进一步增强管控能力。
腾讯也在智能体方面进行大量投入,建立起基础设施、开发平台、前端应用全链路能力,对智能体构筑了完整的安全体系,覆盖底层的操作系统、组件、供应链,到中层的开发环境、大模型安全,再到上层的智能体应用。
同时,腾讯发挥自身产业互联网优势,产品化了部分能力以服务产业,比如AI-SPM大模型态势感知能力,让底层组件透明化,及时发现组件的漏洞;再比如MCP网关能力,统一完成身份认证、健全、访问控制、审计等工作;还有LLM-WAF大模型防火墙能力,对大模型的输入、输出进行控制以防范风险。此外,腾讯自身的大模型、智能体应用在上线前都经过了内部红队的攻防演练,发现更多的死角和漏洞。
“今天的对话只是一个起点,构建适配智能体时代的安全底座,离不开顶层设计的政策引导、云厂商的技术赋能、行业客户的实践反馈、科研机构的研究支撑,需要我们全行业同仁携手共进,在技术创新中守住安全底线,在合规治理中拓宽发展空间,共同为人工智能产业的健康、可持续性发展筑牢根基。”最后,卫斌如此总结。