Large Motion Model(LMM)是统一的多模态运动生成模型,是新加坡南洋理工大学S-Lab和商汤科技研究团队共同推出的。LMM能处理包括文本到运动、音乐到舞蹈等多种运动生成任务,在多个基准测试中展现出与专家模型相媲美的性能。模型基于整合不同模态、格式和任务的数据集创建全面的MotionVerse数据集,采用创新的ArtAttention机制和预训练策略,实现对身体部位的精确控制和广泛的知识泛化。LMM在处理未见任务时展现出强大的泛化能力,为未来大型运动模型的研究提供新视角。

Large Motion Model – 商汤科技联合南洋理工推出的统一多模态运动生成模型  第1张
(图片来源网络,侵删)