PaperWeekly 大幅提高CIFAR-10数据生成,?NVIDIA针对数据不充分数据集进行生成改进( 四 )


文章图片
▲图9.ADA在迁移学习下的表现
最后放一下在小型数据集CIFAR-10数据集下 , ADA模型展示的可怕的生成效果:
PaperWeekly 大幅提高CIFAR-10数据生成,?NVIDIA针对数据不充分数据集进行生成改进
文章图片
▲图10.ADA在CIFAR-10数据集下定性结果
总结
ADA展示了在训练数据短缺时 , 自适应判别器扩充可以稳定且有效的训练并极大地提高结果质量 。 但是也要指出扩充数据集并不能替代真实数据 , 相同数据量下肯定是真实数据越多得到的生成效果越好的 。
自适应增强的设计也展示了NVIDIA科研上的严谨 , 更值得说的是 , NVIDIA这样的不太在乎算力资源的研究者能专心在少数据样本的训练上展开研究本身就是很值得敬佩的 。
参考文献
[1]A.Bora,E.Price,andA.Dimakis.AmbientGAN:Generativemodelsfromlossymeasurements.InProc.ICLR,2018.
[2]D.ZhangandA.Khoreva.PA-GAN:ImprovingGANtrainingbyprogressiveaugmentation.InProc.NeurIPS,2019.
[3]I.Gulrajani,F.Ahmed,M.Arjovsky,V.Dumoulin,andA.C.Courville.ImprovedtrainingofWassersteinGANs.InProc.NIPS,pages5769–5779,2017.
[4]Z.Zhao,S.Singh,H.Lee,Z.Zhang,A.Odena,andH.Zhang.ImprovedconsistencyregularizationforGANs.CoRR,abs/2002.04724,2020.
[5]T.Chen,X.Zhai,M.Ritter,M.Lucic,andN.Houlsby.Self-supervisedGANsviaauxiliaryrotationloss.InProc.CVPR,2019.
[6]T.Miyato,T.Kataoka,M.Koyama,andY.Yoshida.Spectralnormalizationforgenerativeadversarialnetworks.InProc.ICLR,2018.
?稿件确系个人原创作品 , 来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向)
【PaperWeekly 大幅提高CIFAR-10数据生成,?NVIDIA针对数据不充分数据集进行生成改进】?PaperWeekly默认每篇文章都是首发 , 均会添加“原创”标志