StableAnimator是复旦大学、微软亚洲研究院、虎牙公司和卡内基梅隆大学共同推出的端到端高质量身份保持视频扩散框架。StableAnimator能根据一张参考图像和一系列姿态,无需任何后处理工具,直接合成高保真度且保持人物身份一致性的视频。StableAnimator框架基于计算图像和面部嵌入、用全局内容感知面部编码器优化面部信息、引入分布感知ID适配器减少时间层干扰,在推理阶段采用基于Hamilton-Jacobi-Bellman方程的优化方法提升面部质量。

StableAnimator – 复旦联合微软等机构推出的端到端身份一致性视频扩散框架  第1张
(图片来源网络,侵删)
StableAnimator – 复旦联合微软等机构推出的端到端身份一致性视频扩散框架  第2张
(图片来源网络,侵删)