生成对立络(GAN)-由两部分组成的AI模型,包含创立样本的生成器和企图区别生成的样本和实在样本的鉴别器-已应用于视频,艺术品和音乐组成等使命药物发现和误导性媒体检测。正如亚马逊今天上午在博客中泄漏的那样,他们也进入了电子商务范畴。亚马逊的科学家描绘了一个GAN,该GAN能够生成服装示例以匹配产品描绘,他们说能够用来完善客户文字查询。例如,假如购物者查找“女士的黑色裤子”,然后增加“娇小”一词,然后再增加“ capri”一词,则屏幕上的图画会跟着每个新词而相应地进行调整。
它与草创公司Vue.ai商业化的GAN模型没有什么不同,该模型会暂缓服装特征并学会发生传神的姿态,肤色和其他特征。经过服装快照,它能够生成各种尺度的模型图画,速度比传统的摄影快5倍。
亚马逊提出的体系ReStGAN是对现有体系StackGAN的修正,该体系经过将图画分为两部分来生成图画。运用GAN,它首要直接从文本生成低分辨率图画,然后运用GAN将图画上采样到具有纹路和天然上色的高分辨率版别。 GAN运用长时间的短期回忆AI模型进行练习,该模型能够按次序处理次序输入,使它们能够在将接连单词增加到输入时细化图画。为了使从描绘中进行组成的使命更简单,体系仅限于三种产品类别(裤子,牛仔裤和短裤),这些类别的练习图画已标准化(即,删除了布景,并对图画进行了裁剪和调整巨细,因而它们的形状和份额都相同)。
研讨团队以无人监督的方法对体系进行了训练,这意味着训练数据由不需要额定人工注释的产品标题和图片组成。团队运用辅佐分类器提高了体系的稳定性,该辅佐分类器依据以下三个特点对模型生成的图画进行分类:服装类型(裤子,牛仔裤或短裤),颜色以及它们是否描绘了男人,女性或男女通用的服装。研讨人员还将颜色概括在一个称为LAB的代表性空间中,该空间的规划使各点之间的间隔对应于感知到的色差,从而为查找表奠定了根底,该查找表将视觉上相似的颜色映射到文本描绘的相同特征。
研讨人员称,在保存旧视觉特征的一起增加新视觉特征的才能是该体系的新颖性之一,另一种是颜色模型,该颜色模型能够发生颜色更好地匹配文本输入的图画。在试验中,研讨小组陈述说,与曾经根据StackGAN架构的最佳功能模型比较,ReStGAN的产品分类提高了22%,性别提高了27%。颜色改进100%。