SynCD(Synthetic Customization Dataset)是卡内基梅隆大学和Meta推出的高质量合成训练数据集,用在提升文本到图像模型的定制化能力。SynCD包含多个相同对象在不同光照、背景和姿态下的图像,基于共享注意力机制(Masked Shared Attention)和3D资产引导(如Objaverse)确保对象在不同图像中的一致性。SynCD用语言模型(LLM)生成详细的对象描述和背景场景,结合深度引导的文本到图像模型生成耦合图像。SynCD解决了现实世界中多视角、多背景对象图像难以大规模收集的问题,为无调优(tuning-free)的模型定制化提供丰富的训练资源,显著提升了模型在生成新场景中特定对象时的图像质量和身份保持能力。


全部评论
留言在赶来的路上...
发表评论