Bendi新闻
>
音频秒生全身虚拟人像,AI完美驱动面部肢体动作!UC伯克利Meta提出Audio2Photoreal

音频秒生全身虚拟人像,AI完美驱动面部肢体动作!UC伯克利Meta提出Audio2Photoreal

10月前



  新智元报道  

编辑:拉燕
【新智元导读】最近,来自Meta和UC伯克利的研究人员,发布了一种最新的音频到人像模型。操作简单,输出极致逼真。

就在最近,Meta和UC伯克利联合提出了一种全新的虚拟人物形象生成的方法——

直接根据音频生成全身人像,效果不仅逼真,还能模拟出原音频中包含的细节,比如手势、表情、情绪等等。

论文地址:https://arxiv.org/abs/2401.01885

话不多说,直接上图。

可以看到,人像刷地一下就出来了,十分逼真。
而且从上面的文字对话可以看到,就是在讲可以用音频生成虚拟人像这件事。讲者的手势动作真的像是在做讲解。

音频到Avatar,一步!


这个系统不光可以生成全身逼真的形象,人像还会根据二人互动的对话动态做出手势。
给定语音音频后,音频会为一个人输出多种可能的手势动作,包括面部、身体和双手等部位。
Meta表示,方法的关键就在于将矢量量化带来的样本多样性优势与通过扩散获得的高频细节相结合,从而生成更具动态和表现力的动作。
研究团队使用了高度逼真的人像,将生成的运动可视化。这些头像可以表达手势中的关键细微差别(如讥笑和傻笑)。
为了促进这一研究方向,Meta首次引入了一个叫作多视角对话数据集的玩意儿,可以让用户进行逼真的重建。
实验表明,Meta的新模型能生成恰当且多样化的手势,从性能上讲,要优于扩散和纯VQ的方法。
此外,在研究过程中,Meta在感知评估这一块强调了逼真度在准确评估对话手势中所包含的微妙运动细节方面的重要性。
Meta已将代码和数据集公开发布在了网站上。
具体来看,要实现这个最终结果,有以下6个步骤:
  1. 一个新颖、丰富的二元对话数据集,可以进行逼真的重构。

  1. 由三部分组成的运动模型:面部运动模型、引导姿势预测器和身体运动模型。


  1. 给定音频和预训练唇语回归器的输出,Meta训练一个条件扩散模型来输出面部运动。
  1. 对于身体部分,Meta将音频作为输入,并以1fps的速度自回归输出VQ-ed引导姿势。


  1. 然后,将音频和引导姿态传递到同一个扩散模型中,以30 fps的速度填充高频率的身体运动。


  1. 最后,生成的面部和肢体运动都会传入Meta训练过的人像渲染器,生成逼真的人像。


然后,成品就有了!
Meta在博客中列举了四个比较有特色的点,以此来凸显效果的逼真和模型的强大。
  1. 甩腕表示梳理要点;讲故事时耸肩。

  1. 表达「它们的发生肯定是有原因的」时,强调手臂的动作;用手指的动作来表示陈述。

  1. 通过手部动作来配合谈话,以及声音的起伏。


  1. 提问时手指的动作细节;想问题时头向后仰,做思考状;回答时手向外推。

论文


经过前面的介绍,整个流程大家估计已经很熟悉了。
无非就是,音频输入、中间过程,以及最终输出。
关于对话的原始音频,Meta引入了一个模型(上面提到过),该模型能为两人中的其中一人生成相应的逼真面部、身体和手部动作。
研究人员从记录的多视角数据中提取潜在表情代码来表示面部特征,并用运动骨架中的关节角度来表示身体姿势。
该系统由两个生成模型组成,在输入二人对话音频的情况下,生成表情代码和身体姿势序列。
然后,就可以使用Meta的神经人像渲染器,逐帧渲染表情代码和身体姿势序列。
首先,脸部与输入音频的相关性很强,尤其是嘴唇的运动,而身体与语音的相关性较弱。这就导致在给定的语音输入中,肢体手势的合理性更加多样化。
其次,由于在两个不同的空间(学习到的表情代码与关节角度)中表示面部和身体,因此它们各自遵循不同的时间动态。因此,研究人员选择用两个独立的运动模型来模拟面部和身体。这样,脸部模型就可以将其能力用于生成与语音一致的脸部细节,而身体模型则可以专注于生成多样但合理的身体运动。
此外,面部运动模型是一个扩散模型,以输入音频和由预先训练的唇部回归器生成的唇部顶点为条件,如下图所示。
对于肢体运动模型,Meta发现,仅以音频为条件的纯扩散模型产生的运动多样性较少,而且在时间上显得不可思议。
但是,当以不同的引导姿势为条件时,质量就会提高。
因此,Meta选择将身体运动模型分为两部分:首先,自回归音频条件变换器以 1fps 的速度预测粗略的引导姿势,然后扩散模型利用这些粗略的引导姿势来填充细粒度和高频运动。
为了从音频输入生成面部动作,Meta构建了一个以音频为条件的扩散模型,遵循DDPM对扩散的定义。
前向噪声过程定义为:
其中,F(0)近似于无噪声的面部表情代码序列,τ∈ [1, ... , T˙]表示前向扩散步骤,ατ∈ (0, 1) 遵循单调递减。当 τ接近T˙时,Meta对F(T˙)∼N(0, I)进行采样。
为了逆转噪声过程,Meta定义了一个模型,从噪声F(τ)中去噪F(0)。
然后,将前向过程应用于预测的F(0),就能得到反向过程的下一步F(τ-1) 。
而对于身体动作的模型,给定对话的输入音频后,自注意力模型P会生成多种多样的引导姿势序列样本,包括倾听反应、说话手势和插话。
P会从丰富的已学姿势代码库中采样,可生成各种姿势,甚至还有如指点、搔痒、鼓掌等小动作,在不同样本中具有很高的多样性。
然后,这些不同的姿势将被用于身体扩散模型J的条件。
实验阶段,Meta评估了模型有效生成逼真对话动作的能力。
研究人员根据跟踪的实况数据(F、J)对结果的真实性和多样性进行了定量评估。
同时还进行了感知评估,以证实定量结果,并衡量生成的手势在特定对话环境中的适当性。
评估结果表明,在逼真的头像上呈现的手势比在三维网格上呈现的手势更容易被评估者感知。
下图为基线和消融(ablation)与实况(GT)的对比。下箭头↓ 表示越低越好。
Meta对数据集中的所有受试者取平均值,并对Divsample的5个序列进行采样,并对每个指标的所有采样取平均值。下标为标准偏差(μσ)。
下图为唇部动作的误差。垂直和水平距离是上下和左右关键点之间沿Y(X)轴的距离。
下表中显示的是GT与生成距离之间的L2差值。Mesh L2指的是唇部区域生成网格顶点与GT网格顶点的误差。误差单位为平方毫米。
为了量化对话中的手势连贯性,Meta主要通过感知评估来评价。
研究团队在Amazon Mechanical Turk上进行了两种不同的A/B测试。在第一个测试中,评估者观看的是在普通非纹理网格上渲染的动作。在第二项测试中,评估者观看的是逼真人像上的运动视频。
在这两种情况下,评估者都观看了一系列视频对比。
在每对视频中,一个视频来自Meta的模型,另一个视频来自最强基线LDA或GT。然后,评估人员被要求根据对话音频找出看起来更合理的动作。
同时,可选答案还细化到了略微偏好与强烈偏好。
如下图所示,Meta引入的方法明显优于最强基准LDA,大约70%的评估者在Mesh和照片真实设置中都更喜欢Meta的成品。
有趣的是,当以逼真的方式可视化时,评估者对该方法的偏好从略微偏好转为了强烈偏好。
而当将Meta的方法与GT进行比较时,这一趋势仍在继续。
在基于Mesh的渲染中,Meta的方法与GT相比,同样具有竞争力,但在逼真领域却落后了。43%的评估者强烈倾向于GT而非Meta的方法。
由于Mesh通常会掩盖微妙的运动细节,因此很难准确评估手势中的细微差别,导致评估者会对不正确的运动更加宽容。
综上来看,结果表明,逼真度对于准确评估对话动作至关重要。
参考资料:
https://people.eecs.berkeley.edu/~evonne_ng/projects/audio2photoreal/




微信扫码关注该文公众号作者

来源:新智元

相关新闻

CVPR 2024 | 面部+肢体动画,一个框架搞定从音频生成数字人表情与动作Stability AI开源47秒音频生成模型,虫鸣鸟叫、摇滚、鼓点都能生成15 秒音频即可“复制”原声!但OpenAI 担心新语音模型被滥用而限制发行OpenAI 推出 AI 图片检测工具,识别准确率高达 98%,还在研发 AI 音频水印特朗普跻身全球富豪400强;诺和诺德减肥药成本5美元竟卖1000美元;OpenAI语音克隆:只需15秒音频样本|一周国际财经AI早知道|抖音治理AI虚拟人;vivo开放蓝心大模型应用下载;百度推出Comate 2.0CVPR 2024 | 闻声识人黑科技!从音频中想象出说话人脸,FaceChain团队出品2024惠宜美本文书讲座:哈佛名师助你叩开藤校大门!(文字+ 音频)微软「诈骗届」王牌框架,真到可怕!一张照片+音频即可生成数字人吉他摇滚、电子音乐都能搞定,Meta开源音频生成新模型MAGNeT,非自回归7倍提速限时返!大语文音频课,一天一篇,复习、拓展齐搞定AI反诈!Deepfake音视频检测技术亮相CES,准确率超90%开源音频编辑器 Audacity 的 AI 工具来了 | Linux 中国9家AI相关公司获融资;3大科技巨头被曝将面临反垄断调查;Vidu重大更新,生成32秒视频,支持音视频合成丨AI情报局AI早知道|抖音推出AI相机星绘;Meta公司推出LayerSkip技术一张照片+音频=超逼真数字人视频!VASA-1模型拉开「实时交互」大幕AI也会「刷抖音」!清华领衔发布短视频全模态理解新模型 | ICML 2024抖音豆包成年轻人AI顶流!字节跳动大模型家族登场,tokens价格比行业低99%放贷余额近4000亿?抖音紧急回应!东方甄选、TikTok有大动作丨大公司动态阿里音频生成大模型一次发俩还开源!50种语言快速理解+5种语言语音生成,带情感的那种早鸟报|快手将下线​音频直播带货;微信输入法上线一键AI问答功能;淘宝成立个性定制一级行业...科技|你有苹果iPhone 7吗?音频门落幕,用户最高可获赔349美金!阿里1688全面接入淘宝,小红书去年转盈,百度将为国行iPhone16提供AI功能,抖音治理伪成功学,这就是今天的其他大新闻!众议员“秒过”最新立法:全美封禁TikTok!美版抖音何去何从?
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。