时间:2023-03-10作者:佚名
AI画画通用模型,新增一员大将!
由阿里达摩院副院长周靖人等人打造的可控扩散模型Composer,一经发布就小火了一把。
这个模型由50亿参数训练而来,和Stable Diffusion原理不同。
它更进一步把训练图像拆解成了多个元素,然后基于这些元素训练扩散模型,让它们能够灵活组合。
由此一来,模型的创造能力就比仅基于图像大很多。
如果有100张能拆分成8个元素的图像,那么就能生成一个数量为100的8次方的结果组合。
网友们看了纷纷表示,AI画画发展速度也太快了!
团队表示,模型的训练和推理代码都在路上了。
观察到现下很多AI画画模型,在细节的可控性上还没有做到很好,比如准确改变颜色、形状等。
研究团队认为,想要实现图像的可控生成,不能依赖于对模型的调节,重点应该放在组合性上,这种方式可以将图像的创造力提升到指数级。
引用语言学大师诺姆·乔姆斯基的经典语录来解释模型,就是:
有限手段的无限使用。
具体来看,该模型就是将每个训练图像拆解成一系列基础元素,如蒙版图、草稿图、文字描述等,用它们来训练一个扩散模型。
然后让这些被拆分的元素,在推理阶段灵活组合,生成大量新的图像输出。
它可以支持多种形式作为输入。比如文字描述作为全局信息,深度图和草图作为局部引导,颜色直方图为低级细节等。
在保证生成图像可控的基础上,作为一个通用框架,该模型还能不用再训练就可以完成大量经典生成任务。
举例来看,图(a)中,最左边的是原图,后面4个是通过对Composer不同子集的表示进行调节而生成的新结果。
图(b)展示的是图像插值的结果。
图像重构的话是酱婶儿的,Composer能够简单地改变图像表示来重新配置图像,比如草稿图和分割图。
还有对图像的特定部分进行编辑。
比如给蛋糕派换口味、把珍珠耳环少女的脸换成梵高、让兔子长一张熊猫脸等。
比较经典的图像生成任务也能挑战,而且无需再训练。
团队表示,现有成果还存在一定局限性,比如在单一条件输入的情况下,生成效果不是很好。以及输入不同语义的图像和文本嵌入时,生成结果会降低对文本嵌入的权重。
而针对AI画画模型都需要面对的风险问题,团队表示为避免被滥用,他们会在公开模型前先创建一个过滤版本。
该研究由阿里及蚂蚁团队完成。
通讯作者为周靖人。
他现任阿里达摩院副院长、阿里云智能CTO,是IEEE Fellow。
2004年于哥伦比亚大学获得计算机博士学位,后加入微软担任研发合伙人。
2015年,周靖人加入阿里巴巴集团,先后负责过达摩院智能计算实验室、大数据智能计算平台、搜索推荐事业部等。
论文一作Huang Lianghua同样来自达摩院,研究方向为扩大模型规模和数据来表示学习和内容生成。