绑定手机号
获取验证码
确认绑定
提问
0/255
提问
订阅开课提醒需关注服务号
回答成功
知道了
扫码关注智猩猩服务号登录
请使用微信扫描二维码
扫描二维码分享给微信好友
您已订阅成功,有新课程,我们将第一时间提醒您。
知道了
发送提问成功
回答可在
“我的——我的提问”中查看
知道了
失败
欢迎来智东西
关注我们
智东西
车东西
芯东西
智猩猩
音乐驱动的高质量长序列舞蹈生成
智猩猩AI新青年讲座 2024/12/17 19:00:00
课程讲师
李镕辉 清华大学 在读博士

师从李秀教授,目前清华大学博士三年级在读。研究方向包括人体动作建模与生成,AI编舞,数字人交互,AIGC等。在CVPR、ICCV、NeurIPS、AAAI等会议及期刊上发表多篇论文。个人主页:https://li-ronghui.github.io/。

李镕辉
清华大学 在读博士

师从李秀教授,目前清华大学博士三年级在读。研究方向包括人体动作建模与生成,AI编舞,数字人交互,AIGC等。在CVPR、ICCV、NeurIPS、AAAI等会议及期刊上发表多篇论文。个人主页:https://li-ronghui.github.io/。

课程提纲
  • 1.音乐驱动舞蹈生成背景介绍
  • 2.高质量细粒度的全身舞蹈动作生成
  • 3.高效生成极长舞蹈序列
  • 4.实验效果展示
课程简介

近年来,生成式人工智能技术的迅猛发展使得高质量的短时舞蹈生成成为可能。然而,实际应用中的舞蹈表演通常远超这一时长,社交舞一般持续3至5分钟,舞蹈剧甚至可能长达15分钟以上。这使得现有的舞蹈生成方法在处理长序列舞蹈时面临诸多挑战,特别是在生成高质量的长序列舞蹈动作方面,现有技术尚难满足实际需求。因此,如何在保证动作细节的同时,捕捉舞蹈的全局结构并生成流畅且富有表现力的长时序列舞蹈,成为一个待解决的核心问题。

针对上述问题,清华大学在读博士李镕辉提出了Lodge,一个能够在给定音乐条件下生成极长舞蹈序列的网络。Lodge采用了两阶段粗到细的扩散架构,并引入了一种具有显著表现力的特征舞蹈原语,作为连接两个扩散模型的中间表示。这一设计有效平衡了全局编舞模式与局部动作的质量和表现力,使得极长的舞蹈序列生成得以并行化完成。论文已收录于CVPR 2024!

Lodge通过两阶段扩散实现长舞蹈序列生成。全局扩散阶段利用Transformer网络从音乐中提取节奏和结构信息,生成稀疏的特征舞蹈原语(8帧关键动作),捕捉音乐与舞蹈的全局编排模式。这些原语表达性强、语义丰富,为局部扩散提供了关键指导。在局部扩散阶段,框架以舞蹈原语为引导,并行生成细节丰富的短舞蹈片段,确保片段的连续性与表现力。其中,硬提示原语用于片段连接,软提示原语提升动作质量与多样性,最终生成兼具全局编排和局部细节的高质量长舞蹈序列。

与此同时,Lodge在FineDance和AIST++数据集上进行实验,其中FineDance以152.3秒的平均每段舞蹈时长远高于AIST++的13.3秒,因此成为主要的训练和测试数据集。实验结果表明,Lodge在用户研究和标准指标的广泛评估中取得了最先进结果。生成样本表明,Lodge能够并行生成符合编舞规则的舞蹈,同时保持局部细节和物理真实感。由于Lodge的并行生成架构,即使生成更长的舞蹈序列,推理时间也不会显著增大。

12月17日19点,智猩猩邀请到论文一作、清华大学在读博士李镕辉参与「智猩猩AI新青年讲座」257讲,主讲《音乐驱动的高质量长序列舞蹈生成》。

精彩问答
提问
提问
目前还没有问题,可以点击右侧的“提问按钮”提问
更多问题...