Style Aligned Image Generation via Shared Attention

2023年12月04日
  • 简介
    大规模的文本转图像(T2I)模型已经在创意领域迅速崭露头角,可以从文本提示中生成视觉上引人注目的输出。然而,控制这些模型以确保一致的风格仍然具有挑战性,现有方法需要微调和手动干预以分离内容和风格。在本文中,我们介绍了StyleAligned,一种新颖的技术,旨在在一系列生成的图像之间建立风格对齐。通过在扩散过程中采用最小的“注意共享”,我们的方法在T2I模型中保持图像之间的风格一致性。这种方法允许使用参考样式通过简单的反演操作创建具有一致风格的图像。我们的方法在不同风格和文本提示下的评估表明,具有高质量的综合和保真度,凸显了它在实现各种输入的一致风格方面的功效。
  • 作者讲解
  • 图表
  • 解决问题
    该论文旨在解决大规模文本到图像(T2I)模型中的一致性风格问题,通过提出一种名为StyleAligned的技术来实现风格一致性。
  • 关键思路
    StyleAligned技术通过在扩散过程中采用最小的'attention sharing',在T2I模型中保持图像之间的风格一致性,并允许使用参考风格通过简单的反演操作创建风格一致的图像。
  • 其它亮点
    该方法在不同风格和文本提示下进行了评估,表现出高质量的合成和保真度,证明其在实现各种输入的一致风格方面的有效性。
  • 相关研究
    在这个领域中的最近相关研究包括:Generative Adversarial Networks (GANs)、Variational Autoencoders (VAEs)和Neural Style Transfer等。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问