东京大学llm
-
发布了文章 2个月前
TANGO – 东京大学和CyberAgent AI Lab推出声音驱动全身手势视频生成框架
TANGO 是一个由东京大学和 CyberAgent AI Lab 共同推出的开源框架,专注于生成与目标语音同步的全身手势视频。基于分层音频运动嵌入和扩散插值网络,将目标语音音频与参考视频库中的动作完美匹配,确保制作出高保真...
-
发布了文章 2个月前
InstructMove – 东京大学联合 Adobe 推出基于指令的图像编辑模型
InstructMove是东京大学和Adobe公司联合推出的基于指令的图像编辑模型,通过观察视频中的帧对变化学习如何根据指令进行图像操作。模型基于多模态大型语言模型(MLLMs)生成描述帧对之间变化的编辑指令,训练出能在保持...
-
发布了文章 2个月前
ARTalk – 东京大学等机构推出的3D头部动画生成框架
ARTalk是东京大学和日本理化学研究所推出的新型语音驱动3D头部动画生成框架,基于自回归模型实现实时、高同步性的唇部动作和自然的面部表情及头部姿势生成。ARTalk用多尺度运动码本和滑动时间窗口技术,结合语音输入生成高质量...
-
发布了文章 2个月前
baidu09东京大学与 Sekisui House 启动生物多样性与健康联合研究
...
没有更多内容








