支持DeepSeek等主流大模型一键接入,声网发布对话式 AI 引擎

互联网
2025
02/10
14:12
分享
评论

这个春节,DeepSeek 火爆全球,让我们看到了国产 AI 的崛起以及生成式 AI 带来的创新力。就在春节前,声网发布了 Conversational AI Engine(声网对话式 AI 引擎),该方案也同样支持 DeepSeek 大模型一键接入,助力开发者快速构建超低延时的对话式 AI 场景。

声网 Conversational AI Engine 基于全球主流 Conversational AI Agents 开源框架 TEN Framework 构建,不仅实现了行业领先的650ms超低响应延迟,更具备对话人声锁定、全模型适配等核心优势。

Any Model:全模型敏捷适配解锁下一代智能对话体验

全栈模型兼容体系

通过独创的全模型适配架构技术,支持第三方云端大模型服务、企业私有化模型及本地化部署的开源模型无缝接入,实现跨架构模型的敏捷适配。

0改造接入体验

依托标准化 API,不止新模型,老模型也可实现一键式快速接入,平均接入周期大幅缩短,有效保障企业 AI 模型资产的无损迁移与持续价值转化。

自研 AI VAD 优雅打断对话、更懂人心

在真实的语音对话中,打断对方并提出新疑问是很常见的现象,而在对话式 AI 场景,能否支持随时打断也成为衡量大模型智能化的重要指标。声网自研的 AI VAD 技术,适应人类对话的停顿、语气和对话节奏,支持 AI 对话过程中随时优雅打断。

智能屏蔽背景人声、噪声 误打断率较 ChatGPT 降低50%

误打断是当下大模型语音交互存在的一个明显痛点,在人与 Agent 交互过程中一旦出现了嘈杂的背景人声与环境噪音干扰,大模型会误触发打断机制,停止交互。对此,声网技术团队针对当前大模型语音技术特性,结合多年积累的 AI 降噪等音频对话处理能力,智能屏蔽交互中的各类背景人声与噪声干扰,即使在商场、地铁站、咖啡店等夹杂背景人声的嘈杂环境中,也能保证对话应答精准、流畅。

我们也对声网 Conversational AI Engine 与 ChatGPT 进行了测试对比,在噪杂的环境下,声网的方案误打断率较 ChatGPT 降低 50%。

不惧弱网80%丢包仍能稳定交流

多模态大模型在离开理想的网络环境下,如何保障交互的稳定、流畅,也是很多 AI 企业在着力优化的方向。声网凭借在音视频领域积累了深厚的技术优势与场景实践,通过实时网络覆盖、网络超强适应、海量终端适配等优势打造全球一致的端云覆盖体验。

例如,在网络不稳定的室外环境,声网的智能路由+抗弱网算法可以做到各种复杂网络环境下的跨区域丝滑互动,即使在面临 80%丢包的情况下人与 Agent 也能稳定交流。

目前声网 Conversational AI Engine 已开放 Private Beta 版本邀请测试,如您想体验 Demo 或获取产品测试接入的服务支持,可关注「声网官方微信公众号」获取相关支持。

THE END
广告、内容合作请点击这里 寻求合作
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表砍柴网的观点和立场。

相关热点

相关推荐

1
3