二次元妹子五官画风都能改,周博磊团队用无监督方法控制GAN | CVPR 2021

2021-03-09 22:15 783 阅读 ID:290
量子位
量子位

    现在,GAN不仅能画出二次元妹子,还能精准调节五官、表情、姿势和绘画风格。



    而且在调控某个因素的时候,其他条件能尽量保持不变。

    这就是香港中文大学周博磊团队提出的SeFa(语义分解,Semantics Factorization),该论文最近入选了CVPR 2021(Oral)。

    SeFa适用于PGGANStyleGANBigGANStyleGAN2等常见GAN模型,不仅对二次元妹子有效,甚至还能调控猫咪上下左右不同方向。



    通过这种方法分离出映射矩阵的各个本征值,即可实现对不同图像元素的精准调控



    更重要的是,SeFa无需对GAN生成的数据进行标注,它能自己找到这些元素变化对应的编码。也就说SeFa是一种无监督方法。

    目前,SeFa相关代码已经开源。



    周博磊教授团队的这一成果还得到了母校CSAIL实验室的转发。



    无监督方法调节GAN

    这些年,GAN在图像合成上取得了巨大的成功。如果想要更好的操控GAN,就需要正确识别其中语义。

    但是,由于潜在空间的高维性以及图像语义的多样性,在潜在空间中寻找有效的语义非常具有挑战性。

    现有一些基于监督学习的方法,通常首先对大量的潜在编码进行随机采样,然后合成大量图像,并使用一些预定义的标签对其进行注释,最后使用这些标记样本来学习潜在空间中的分离边界。

    这种对大量GAN生成图片进行标注的方法,耗时耗力。

    因此,作者没有直接利用合成样本作为中间步骤,而是直接研究了GAN的生成机制以解释其内部表示。



    更具体地说,对于所有基于神经网络的GAN架构,都是将全连接层用作将输入潜在编码带入生成器的第一步。

    这种变换实际上会滤除潜在空间中一些可忽略的因素,突显对于图像合成关键的因素。如果我们能够识别出这些重要的潜在方向,就可以控制图像生成过程。

    SeFa对图像的操作,可以看做是将d维潜在空间中的对应向量z沿着n的方向进行移动。



    而GAN还会将z映射到另一个m维空间的y。



    最终,作者将这一问题转化为:



    与其他方法对比

    与现有的监督和无监督方法相比,SeFa方法能够更准确,更广泛地识别可解释的维度。而且该方法灵活通用,可适用于不同的GAN。

    在下图中,SeFa(b)和无监督的GANSpace(a)、有监督的InterFaceGAN进行了定性对比。SeFa已经接近于有监督方法的效果。

    和InfoGAN(a)对比发现,SeFa(b)对不同语义因素的分解程度更高,因为前者在变换人脸姿势时,发色发生了明显的变化。

    SeFa不仅能处理GAN制造的图片,对真实照片也有效。利用之前周博磊团队提出的GAN反演方法,将真实照片反向投影到潜在空间,就能改变真实照片。

    作者简介

    这篇论文的第一作者是香港中文大学多媒体实验室的在读博士生Shen Yujun,本科毕业于清华大学。

    他的研究方向是计算机视觉、深度学习、生成模型、网络解释、可解释人工智能(XAI)。

    今年他已有3篇论文被CVPR 2021接收,其中两篇为Oral。之前他还在CVPR 2020上发表了2篇论文,在CVPR 2018上发表了1篇论文,总计发表了6篇CVPR

    论文的通讯作者是香港中文大学助理教授周博磊



    周博磊是MIT CSAIL实验室博士,他的研究涉及计算机视觉和机器学习,尤其是视觉场景理解和可解释AI系统。

    论文地址: https://arxiv.org/abs/2007.06600

    代码地址: https://github.com/genforce/sefa

    Colab地址: https://colab.research.google.com/github/genforce/sefa/blob/master/docs/SeFa.ipynb

    —完—
    @量子位 · 追踪AI技术和产品新动态
    深有感触的朋友,欢迎赞同、关注、分享三连վ'ᴗ' ի ❤

    免责声明:作者保留权利,不代表本站立场。如想了解更多和作者有关的信息可以查看页面右侧作者信息卡片。
    反馈
    to-top--btn