猫头虎AI 荐研|腾讯开源长篇叙事音频生成模型 AudioStory:统一模型,让 AI 会讲故事

发布于:2025-09-05 ⋅ 阅读:(18) ⋅ 点赞:(0)

🐯猫头虎荐研|腾讯开源长篇叙事音频生成模型 AudioStory:统一模型,让 AI 会讲故事

大家好,我是猫头虎 🐯🦉,又来给大家推荐新鲜出炉的 AI 开源项目
这次要聊的是腾讯 ARC Lab 最近开源的一个相当炸裂的模型 —— AudioStory

一句话总结:它能把文本、视频,甚至已有音频,变成 长篇、完整、有情绪、有逻辑的音频故事
👉 有声小说、动画配音、长音频叙事,全都不在话下。
在这里插入图片描述


✨ 为什么值得关注?

我们先来看看痛点。
传统的 Text-to-Audio (TTA) 技术,的确能生成短音频,但要做长篇叙事就会遇到三大难题:

  1. 场景割裂 —— 一会儿是森林,一会儿是都市,过渡生硬;
  2. 情绪漂移 —— 上一秒还在悲伤,下一秒突然变嗨,完全不连贯;
  3. 模块割裂 —— 大多数方案要把理解、生成、后处理拆成好几个流水线模块,工程复杂,效果还经常对不上。

AudioStory 的厉害之处在于:
它是一个 统一模型,把 指令理解 + 音频生成 + 跨场景一致性 全部揉在一起。

这意味着它不仅能生成自然过渡的叙事音频,还能稳住整体基调和情感,效果远超扩散模型或 LLM+扩散的组合。
研究团队也拿出了数据:在 FD (Fréchet Distance)FAD (Fréchet Audio Distance) 两个关键指标上,AudioStory 的表现全面优于基线模型。


📖 它能做什么?

AudioStory 提供了三大核心能力:

1️⃣ 视频配音(Video Dubbing)

Tom & Jerry 这样的动画片,你只需要给出视觉字幕,AudioStory 就能自动生成拟声和对白。
它还能跨域泛化,比如 Snoopy哪吒Donald Duck熊出没 风格全都能玩。

换句话说:你给它一个视频,模型能自动加上“活灵活现的声音轨”。


2️⃣ 文本转长篇音频(Text-to-Long Audio)

和普通的 TTS 不一样,它能把你的文本变成 完整的场景叙事

示例指令:

生成一段完整音频:Jake Shimabukuro 在录音室弹奏复杂的尤克里里曲目,获得掌声,并在采访中讨论职业生涯。总时长 49.9 秒。

生成结果包含:演奏声 🎶 + 环境声 🌌 + 掌声 👏 + 采访 🎤 —— 全流程沉浸式叙事。


3️⃣ 音频续写(Audio Continuation)

给定一段已有音频,AudioStory 能理解上下文,并自然衔接后续。

例如:输入一段篮球教练训练的录音,模型能生成教练继续讲解战术的音频。
就像 GPT 写小说的续写,但对象换成了音频流。


🧩 技术原理

在这里插入图片描述

核心架构是一个 理解–生成统一框架

  1. 输入理解

    • LLM 先对输入(文本 / 音频 / 视频字幕)进行分析,拆解为有逻辑顺序的 子事件
  2. 推理生成

    • 每个子事件由 LLM 生成 描述字幕 (captions)语义 token残余 token
    • 这些 token 被送进 DiT(Diffusion Transformer),合成高保真音频片段。
  3. 一致性机制

    • Bridging Query:保持单场景内部的语义稳定;
    • Consistency Query:确保跨场景的情感和叙事基调统一。

最终效果:情绪和过渡都自然得像真人配音师。


⚙️ 安装与上手

项目已开源在 GitHub,环境配置很友好:

git clone https://github.com/TencentARC/AudioStory.git
cd AudioStory
conda create -n audiostory python=3.10 -y
conda activate audiostory
bash install_audiostory.sh

推理示例:

python evaluate/inference.py \
    --model_path ckpt/audiostory-3B \
    --guidance 4.0 \
    --save_folder_name audiostory \
    --total_duration 50

依赖环境:

  • Python >= 3.10
  • PyTorch >= 2.1.0
  • NVIDIA GPU + CUDA

📊 实验结果

团队在多任务测试中给出了硬指标:

  • FD/FAD:明显优于扩散模型和 LLM+扩散基线。
  • 叙事一致性:在动画配音和自然场景音频中,人类听感评测也显著提升。

可以说,AudioStory 把长篇叙事音频生成拉到了一个新高度。


🔋 致谢与生态

在持续噪声去除器(continuous denoisers)构建上,AudioStory 参考了 SEED-XTangoFlux 项目。
学术圈的相互借鉴与迭代,正推动整个 TTA 领域的飞速发展。


🐯猫头虎点评

为什么我推荐大家关注 AudioStory

  1. 场景落地感强 —— 有声小说、播客、动画后期、虚拟主播,马上能用。
  2. 统一模型思路 —— 省去了多模块拼接的麻烦,更简洁也更稳健。
  3. 开源可玩性 —— 代码+模型+Demo 全放出,研究者和开发者都能快速上手。

未来如果结合 多模态大模型(如视觉+音频),再叠加 实时生成,那真的就是“AI 声音导演”了。

👉 地址奉上:https://github.com/TencentARC/AudioStory


🐯 总结一句:
AudioStory = 让 AI 不仅能说话,更能讲故事。
从短音频走向长篇叙事,这是 TTA 的关键突破,也可能是下一波“有声内容产业”的催化剂。



网站公告

今日签到

点亮在社区的每一天
去签到