「四合一物体传送门」,向场景中可控传送物体,上交&蚂蚁出品

2023-09-04 13:07 296 阅读 ID:1399
机器之心
机器之心

在图像编辑的常用操作中,图像合成 (image composition) 指在把一张图片的前景物体和另外一张背景图片结合起来得到一张合成图 (composite image),视觉效果类似于把一张图片的前景物体传送到另外一张背景图片上,如下图所示。

图像合成在艺术创作、海报设计、电子商务、虚拟现实、数据增广等领域有着广泛应用。

但是通过简单的剪切粘贴得到的合成图可能会存在很多问题。在之前的研究工作中,图像合成衍生出不同的子任务,分别解决不同的子问题。举例来说,图像混合 (image blending) 旨在解决前景和背景之间不自然的边界。图像和谐化 (image harmonization) 旨在调整前景的光照使其与背景和谐。视角调整 (view synthesis) 旨在调整前景的姿态,使其与背景匹配。物体放置 (object placement) 旨在为前景物体预测合适的位置、大小、透视角度。阴影生成 (shadow generation) 旨在为前景物体在背景上生成合理的阴影。

如下图所示,之前的研究工作串行或者并行地执行上述子任务,获得逼真自然的合成图。在串行框架下,我们可以根据实际需求有选择性地执行部分子任务。

在并行框架下,现在流行的做法是利用扩散模型,输入一张带有前景边界框的背景图片和一张前景物体图片,直接生成最终的合成图,使得前景物体无缝融入背景图片,光照和阴影合理,姿态与背景适配。

该并行框架相当于同时执行多个子任务,无法有选择性地执行部分子任务,不具有可控性,可能会对前景物体的姿态或者颜色带来不必要或者不合理的改变。

为了提升并行框架的可控性,能够有选择性地执行部分子任务,我们提出可控图像合成模型 Controllable Image Composition (ControlCom)。如下图所示,我们用一个指示向量作为扩散模型的条件信息,控制合成图中前景物体的属性。指示向量是一个两维的二值向量,两个维度分别控制是否调整前景物体的光照属性和姿态属性,1 代表调整,0 代表保留。

具体来说,(0,0) 代表既不改变前景光照,也不改变前景姿态,只是把物体无缝融入背景图片,相当于图像混合 (image blending)。(1,0) 是只改变前景光照使其与背景和谐,保留前景姿态,相当于图像和谐化 (image harmonization)。(0,1) 是只改变前景姿态使其与背景匹配,保留前景光照,相当于视角调整 (view synthesis)。(1,1) 是同时改变前景的光照和姿态,相当于现在的不可控并行图像合成。

我们通过指示向量把四种任务纳入同一个框架,实现四合一物体传送门的功能,向场景中可控传送物体。该工作由上海交通大学和蚂蚁集团合作完成,代码和模型即将开源。

论文链接:https://arxiv.org/abs/2308.10040

代码模型链接:https://github.com/bcmi/ControlCom-Image-Composition

在下图中,我们展示了可控图像合成的功能。

左边一列,前景物体的姿态原本就和背景图片适配,用户可能希望保留前景物体的姿态。之前的方法 PbE [1], ObjectStitch [2] 会对前景物体的姿态做出不必要且不可控的改变。我们方法的 (1,0) 版本能够保留前景物体的姿态,将前景物体无缝融入背景图片且光照和谐。

右边一列,前景物体的光照原本就和背景光照一致,之前的方法可能会对前景物体的颜色产生不符合预期的改变,比如车的颜色和衣服的颜色,我们方法的 (0,1) 版本能够保留前景物体的颜色,同时调整前景物体的姿态使其合理地融入背景图片。

接下来,我们展示更多我们方法四个版本 (0,0),(1,0),(0,1),(1,1) 的结果。可以看出在使用不同指示向量的情况下,我们的方法能够有选择性地调整前景物体的部分属性,有效控制合成图的效果,满足用户不同的需求。

能够实现四种功能的模型结构是什么样的呢?我们方法的模型结构如下图所示,模型输入带有前景边界框的背景图片和前景物体图片,将前景物体的特征和指示向量结合到扩散模型中。

我们提取前景物体的全局特征和局部特征,先融合全局特征,再融合局部特征,在局部融合的过程中使用对齐的前景特征图进行特征调制,实现更好的细节保留。指示向量在全局融合和局部融合中都有使用,更加充分地控制前景物体的属性。

我们基于预训练的 Stable diffusion, 使用 OpenImage 的 190 万张图片训练模型。为了同时训练四个子任务,我们设计了一套数据处理和增广的流程。数据细节和训练细节参见论文。

我们在 COCOEE 数据集和自己构建的数据集上进行测试。因为之前方法都只能做到不可控的图像合成,所以我们用 (1,1) 版本和之前方法比较。对比结果如下图所示,PCTNet 是图像和谐化方法,能够保留物体细节,但是不能调整前景的姿态,不能补全前景物体。其他方法能够生成相同种类的物体,但是在细节保留上效果较差,比如衣服的款式、杯子的纹理、鸟的羽毛颜色等等。

相较之下,我们的方法能够更好地保留前景物体的细节,补全不完整的前景物体,调整前景物体的光照、姿势与背景适配。

该工作是可控图像合成的首次尝试,任务难度较大,仍然存在很多不足,模型表现不够稳定鲁棒。并且,前景物体的属性除了光照、姿态,还可以进一步细化,如何实现更细粒度的可控图像合成是一个更具挑战性的任务。

参考文献

[1] Yang, B.; Gu, S.; Zhang, B.; Zhang, T.; Chen, X.; Sun, X.; Chen, D.; and Wen, F. 2023. Paint by Example: Exemplarbased Image Editing with Diffusion Models. In CVPR.

[2] Song, Y.-Z.; Zhang, Z.; Lin, Z. L.; Cohen, S. D.; Price, B. L.; Zhang, J.; Kim, S. Y.; and Aliaga, D. G. 2023. ObjectStitch: Generative Object Compositing. In CVPR.

免责声明:作者保留权利,不代表本站立场。如想了解更多和作者有关的信息可以查看页面右侧作者信息卡片。
反馈
to-top--btn