谷歌用新AI超越自己:让Imagen能够指定生成对象,风格还能随意转换

前沿科技 2年前 (2022) 虚像
1 0 0

给 Imagen 加上 " 指哪打哪 " 的能力,会变得有多强?

只需上传 3-5 张指定物体的照片,再用文字描述想要生成的背景、动作或表情,就能让指定物体 " 闪现 " 到你想要的场景中,动作表情也都栩栩如生。

谷歌用新AI超越自己:让Imagen能够指定生成对象,风格还能随意转换

不止是动物,其他物体像墨镜、书包、花瓶,也都能做出几乎以假乱真的成品:

谷歌用新AI超越自己:让Imagen能够指定生成对象,风格还能随意转换

属于是发朋友圈也不会被别人看出破绽的那种。(手动狗头)

这个神奇的文字 - 图像生成模型名叫 DreamBooth,是谷歌的最新研究成果,基于 Imagen 的基础上进行了调整,一经发布就在推特上引发热议。

谷歌用新AI超越自己:让Imagen能够指定生成对象,风格还能随意转换

有网友调侃:这简直是最先进的梗图生成器。

谷歌用新AI超越自己:让Imagen能够指定生成对象,风格还能随意转换
谷歌用新AI超越自己:让Imagen能够指定生成对象,风格还能随意转换

目前相关研究论文已上传至 arXiv。

谷歌用新AI超越自己:让Imagen能够指定生成对象,风格还能随意转换

几张照片就能 " 环游世界 "

在介绍原理前,让我们先来看看 DreamBooth 的各种能力,包括换景、指定动作表情服饰、更迭风格等。

如果你是个 " 铲屎官 ",有了这个模型的 "换景能力",就能足不出户送自家狗子走出家门,凡尔赛宫里、富士山脚下……通通不在话下。

谷歌用新AI超越自己:让Imagen能够指定生成对象,风格还能随意转换

光照也比较自然

不仅如此,宠物的动作和表情也都能随意指定,属实是把 " 一句话 P 图 " 的细节拿捏到位了。

谷歌用新AI超越自己:让Imagen能够指定生成对象,风格还能随意转换

除了上面的 " 基操 " 以外,DreamBooth 甚至还能更换各种照片风格,也就是所谓的 " 加滤镜 "。

例如,各种 " 世界名画 " 画风、各种视角的狗子,简直不要太艺术:

谷歌用新AI超越自己:让Imagen能够指定生成对象,风格还能随意转换

至于给它们加上装饰?各种 cosplay 的小道具,也是小菜一碟。

谷歌用新AI超越自己:让Imagen能够指定生成对象,风格还能随意转换

除此之外,无论是更换颜色:

谷歌用新AI超越自己:让Imagen能够指定生成对象,风格还能随意转换

还是更魔幻一点,更换物种,这只 AI 也都能做到。

谷歌用新AI超越自己:让Imagen能够指定生成对象,风格还能随意转换

那么,如此有趣的效果背后的原理是什么呢?

给输入加个 " 特殊标识符 "

研究人员做了个对比,相较于其他大规模文本 - 图像模型如 DALL-E2、Imagen 等,只有采用 DreamBooth 的方法,才能做到对输入图像的忠实还原。

如下图所示,输入 3 张右边表盘上画着黄色 "3" 的小闹表,其中 DreamBooth 生成的图像完美保留了钟表的所有细节,但 DALL-E2 和 Imagen 几次生成的钟都与原来的钟 " 有那么点差异 "。

谷歌用新AI超越自己:让Imagen能够指定生成对象,风格还能随意转换

李逵和 " 李鬼 "

而这也正是 DreamBooth 最大的特点——个性化表达

用户可以给定 3-5 张自己随意拍摄的某一物体的图片,就能得到不同背景下的该物体的新颖再现,同时又保留了其关键特征。

当然,作者也表示,这种方法并不局限于某个模型,如果 DALL · E2 经过一些调整,同样能实现这样的功能。

具体到方法上,DreamBooth 采用了给物体加上 "特殊标识符" 的方法。

也就是说,原本图像生成模型收到的指令只是一类物体,例如 [ cat ] 、 [ dog ] 等,但现在 DreamBooth 会在这类物体前加上一个特殊标识符,变成 [ V ] [ 物体类别 ] 。

以下图为例,将用户上传的三张狗子照片和相应的类名(如 " 狗 ")作为输入信息,得到一个经过微调的文本 - 图像扩散模型。

该扩散模型用 "a [ V ] dog" 来特指用户上传图片中的狗子,再把其带入文字描述中,生成特定的图像,其中 [ V ] 就是那个特殊标识符。

谷歌用新AI超越自己:让Imagen能够指定生成对象,风格还能随意转换

至于为什么不直接用 [ V ] 来指代整个 [ 特定物体 ] ?

作者表示,受限于输入照片的数量,模型无法很好地学习到照片中物体的整体特征,反而可能出现过拟合。

因此这里采用了微调的思路,整体上仍然基于 AI 已经学到的 [ 物体类别 ] 特征,再用 [ V ] 学到的特殊特征来修饰它。

以生成一只白色的狗为例,这里模型会通过 [ V ] 来学习狗的颜色(白色)、体型等个性化细节,加上模型在 [ 狗 ] 这个大的类别中学到的狗的共性,就能生成更多合理又不失个性的白狗的照片。

为了训练这个微调的文本 - 图像扩散模型,研究人员首先根据给定的文本描述生成低分辨率图像,这时生成的图像中狗子的形象是随机的。

然后再应用超分辨率的扩散模型进行替换,把随机图像换成用户上传的特定狗子。

谷歌用新AI超越自己:让Imagen能够指定生成对象,风格还能随意转换

研究团队

DreamBooth 的研究团队来自谷歌,第一作者是 Nataniel Ruiz。

Nataniel Ruiz 是波士顿大学图像和视频计算组的四年级博士生,目前在谷歌实习。主要研究方向是生成模型、图像翻译、对抗性攻击、面部分析和模拟。

谷歌用新AI超越自己:让Imagen能够指定生成对象,风格还能随意转换

原文地址:http://www.myzaker.com/article/630a38e58e9f0922495a1078

相关文章