AI绘图模型不会写字的难题,被阿里破解了

转载
318 天前
8735
绘声绘影

文章转载来源:绘声绘影

原文来源:量子位

图片来源:由无界 AI生成

能准确写汉字的AI绘图工具,终于登场了!

包括中文在内一共支持四种语言,而且还能文字的位置还能任意指定。

从此,人们终于可以和AI绘图模型的“鬼画符”说再见了。

这款名为AnyText的绘图工具来自阿里巴巴,可以按照指定位置精准地向图中加入文字。

此前的绘图模型普遍无法准确地向图中添加文字,即便有也很难支持像中文这样结构复杂的文字。

而目前Anytext支持中英日韩四种语言,不仅字形准确,风格也可以与图片完美融合。

除了可以在绘制时加入文字,修改图片中已有的文字,甚至向其中加字也都不是问题。

究竟AnyText效果如何,我们也实际体验了一番。


各种风格轻松驾驭


官方在GitHub文档中提供了AnyText的部署教程,也可以在魔搭社区中体验。

此外还有网友制作了PyTorch笔记,可以在本地或Colab中一键部署,我们采用的也是这种方式。

AnyText支持中英文Prompt,不过从程序日志来看,中文提示词会被自动翻译成英文。

比如我们想让AnyText给马斯克换上一件白色T恤,让他来给量子位(QbitAI)打个call。

只需要输入提示词,然后设定文本的位置,然后直接运行就可以了。

如果需要调整尺寸等参数,可以将上方的菜单展开;如果不会操作,页面中还附有中英双语教程。

最终,在搭载V100的Colab上,AnyText用了10多秒绘制出了四张图片。

效果还是不错的,不论是图本身还是文字,看上去都没有什么破绽。

而且各种文字材质AnyText都能准确模仿,比如黑板上的粉笔字,甚至是传统书法……

街景中的文字,甚至是电商促销海报,都难不倒AnyText。

而且不仅是平面上各式各样的文字,立体风格同样也不在话下。

而其中的文本编辑功能,还可以修改已有图片中的文字,几乎不会留下破绽。

在测试当中,AnyText也是取得了不错的成绩——无论是中英文,准确度都显著高于ControlNet,FID误差也大幅减少。

此外,如果自行部署,还可以对字体进行自定义,只需准备好字体文件并对代码简单修改就可以了。

那么,研究人员是怎样让AnyText学会写字的呢?


文本渲染独立完成


AnyText是基于扩散模型开发的,主要分为两个模块,文字生成的过程是相对独立的。

这两个模块分别是隐空间辅助模块文本嵌入模块

其中,辅助模块对字形、文字位置和掩码这三种信息进行编码并构建隐空间特征图像,用来辅助视觉文字的生成;

文本嵌入模块则将描述词中的语义部分与待生成文本部分解耦,使用图像编码模块单独提取字形信息后,再与语义信息做融合。

在实际工作过程中,嵌入的文本输送给绘图模块时被用星号代替,在嵌入空间预留位置并用符号填充。

然后文本嵌入模块得到的字形图像被输入预训练OCR模型,提取出字形特征,然后调整其维度并替换预留位置中的符号,得到新的序列。

最后,这个序列表示被输入到CLIP的文本编码器中,形成最终指导图像生成的指令。

这种“分而治之”的方式,既有助于文字的书写精度,也有利于提升文字与背景的一致性。

此外,AnyText还支持嵌入其他扩散模型,为之提供文本生成支持。

论文地址:
https://arxiv.org/abs/2311.03054