当前位置: 网站首页 >AI教程资讯 >正文

Sonic – 腾讯联合浙大推出的音频驱动肖像动画框架

来源:爱论文 时间:2025-03-21 14:34:02

Sonic是什么

Sonic是腾讯和浙江大学推出的音频驱动肖像动画框架,基于全局音频感知生成逼真的面部表情和动作。Sonic基于上下文增强音频学习和运动解耦控制器,分别提取音频片段内的长期时间音频知识和独立控制头部与表情运动,增强局部音频感知能力。Sonic用时间感知位置偏移融合机制,将局部音频感知扩展到全局,解决长视频生成中的抖动和突变问题。Sonic在视频质量、唇部同步精度、运动多样性和时间连贯性方面优于现有的最先进方法,显著提升肖像动画的自然性和连贯性,支持用户对动画的精细调整。

Sonic

Sonic的主要功能

逼真的唇部同步:精确地将音频与唇部动作对齐,确保说话内容与嘴型高度一致。丰富的表情和头部动作:生成多样化且自然的面部表情和头部运动,让动画更具生动性和表现力。长时间稳定生成:在处理长视频时,能保持稳定的输出,避免抖动和突变,确保整体连贯性。用户可调节性:支持用户基于参数调整控制头部运动、表情强度和唇部同步效果,提供高度的可定制性。

Sonic的技术原理

上下文增强音频学习:提取音频片段内的长期时间音频知识,将音频信号中的语调、语速等信息转化为面部表情和唇部运动的先验知识。Whisper-Tiny模型提取音频特征,基于多尺度理解将特征与空间交叉注意力层结合,指导空间帧的生成。运动解耦控制器:将头部运动和表情运动解耦,分别用独立的参数控制,增强动画的多样性和自然性。支持用户自定义夸张运动,基于调整运动桶参数(motion-bucket parameters)控制头部和表情运动的幅度。时间感知位置偏移融合:基于时间感知的滑动窗口策略,将音频片段的局部感知扩展到全局感知,解决长视频生成中的抖动和突变问题。在每个时间步中,模型从新的位置开始处理音频片段,逐步融合全局音频信息,确保长视频的连贯性。全局音频驱动:Sonic完全依赖音频信号驱动动画生成,避免传统方法中对视觉信号(如运动帧)的依赖,提高生成的自然性和时间一致性。音频信号作为全局信号,为面部表情和头部运动提供隐式的先验信息,让生成的动画更加符合音频内容。

Sonic的实验结果

定量比较:在 HDTF 和 CelebV-HQ 数据集上,Sonic 在多个评估指标上优于现有的 SOTA 方法,包括 FID(Fréchet Inception Distance)、FVD(Fréchet Video Distance)、唇部同步精度(Sync-C、Sync-D)和视频流畅度(Smoothness)。Sonic 的 FID 和 FVD 分数显著低于其他方法,表明其生成的视频质量更高,与真实数据的一致性更好。定性比较:Sonic 能生成更自然、更多样的面部表情和头部动作,尤其是在处理复杂背景和不同风格的肖像时,表现出更强的鲁棒性。

Sonic的生成效果

与开源方法对比:Sonic能生成更符合音频的丰富表情,促进更自然的头部运动。
上一篇:FireRedASR – 小红书开源的自动语音识别模型
相关资讯 更多+
  • Sonic – 腾讯联合浙大推出的音频驱动肖像动画框架
    Sonic – 腾讯联合浙大推出的音频驱动肖像动画框架

    Sonic是腾讯和浙江大学推出的音频驱动肖像动画框架,基于全局音频感知生成逼真的面部表情和动作。Sonic基于上下文增强音频学习和运动解耦控制器,分别提取音频片段内的长期时间音频知识和独立控制头部与表情运动,增强局部音频感知能力。

    AI教程资讯 2023-04-14

  • FireRedASR – 小红书开源的自动语音识别模型
    FireRedASR – 小红书开源的自动语音识别模型

    FireRedASR 是小红书开源的工业级自动语音识别(ASR)模型家族,支持普通话、中文方言和英语,在普通话 ASR 基准测试中达到了新的最佳水平(SOTA),在歌词识别方面表现出色。

    AI教程资讯 2023-04-14

  • MVoT – 微软联合剑桥和中科院推出的多模态推理可视化框架
    MVoT – 微软联合剑桥和中科院推出的多模态推理可视化框架

    MVoT(Multimodal Visualization-of-Thought)是微软研究院、剑桥大学语言技术实验室、中国科学院自动化研究所推出的新型多模态推理范式,基于生成图像可视化推理痕迹增强多模态大语言模型(MLLMs)在复杂空间推理任务中的表现。

    AI教程资讯 2023-04-14

  • DynVFX – AI视频增强技术,将新动态内容与原始视频无缝融合
    DynVFX – AI视频增强技术,将新动态内容与原始视频无缝融合

    DynVFX是创新的视频增强技术,能根据简单的文本指令将动态内容无缝集成到真实视频中。通过结合预训练的文本到视频扩散模型和视觉语言模型(VLM),实现了在不依赖复杂用户输入的情况下,自然地将新动态元素与原始视频场景融合。

    AI教程资讯 2023-04-14

最新录入 更多+
确定