当前位置: 代码迷 >> 综合 >> 飞桨PaddlePaddle论文复现:LARGE SCALE GAN TRAINING FOR HIGH FIDELITY NATURAL IMAGE SYNTHESIS
  详细解决方案

飞桨PaddlePaddle论文复现:LARGE SCALE GAN TRAINING FOR HIGH FIDELITY NATURAL IMAGE SYNTHESIS

热度:27   发布时间:2024-02-07 07:36:19.0

飞桨PaddlePaddle论文复现

    • 百度顶会论文复现营:
    • 论文解读:
    • 摘要
    • 总结
    • 个人总结
    • 附录[资料下载]
      • GAN和视频分类 入门的几篇文章
      • GAN5篇论文代码下载链接
      • 飞桨API与torch对照表,点击链接下载

百度顶会论文复现营:

https://aistudio.baidu.com/aistudio/education/group/info/1340

论文解读:

https://aistudio.baidu.com/aistudio/education/preview/513207

摘要

尽管最近在生成性图像建模方面取得了进展,但成功地从诸如ImageNet这样的复杂数据集生成高分辨率、多样化的样本仍然是一个难以捉摸的目标。为此,我们在最大规模上训练生成性对抗网络,并研究这种规模下的不稳定性。我们发现,将正交正则化应用到生成器中,使其易于接受一个简单的“截断技巧”,通过减少生成器输入的方差,允许对样本保真度和多样性之间的权衡进行精细控制。我们的修改导致了模型,这些模型在类条件图像合成中开创了最新的技术水平。在ImageNet上以128×128分辨率进行训练时,我们的模型(BigGANs)的初始分数(IS)为166.5,Fréchet初始距离(FID)为7.4,比之前的最佳IS为52.52和FID提高了18.65。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

总结

我们已经证明了从自然生成模型和多种多样性模型中产生的优势。作为我国最先进的模型之一,它在很大程度上提高了模型的性能。我们还分析了大型GANs的训练行为,用其权值的奇异值来表征其稳定性,并讨论了稳定性与性能之间的相互关系

个人总结

通过百度顶会论文复现营课程的学习,自己对生成对抗网络有了更深的理解,通过对LARGE SCALE GAN TRAINING FOR HIGH FIDELITY NATURAL IMAGE SYNTHESIS文章的解读,更加深刻了解到BigGan的强大。最后希望自己在深度学习方向上能够越来越好,能够尽快达到自己理想的彼岸!感谢百度顶会论文复现营课程。

附录[资料下载]

GAN和视频分类 入门的几篇文章

链接:https://pan.baidu.com/s/1Iz3_tZDfmM41Ht4vvPp-2w
提取码:0000

GAN5篇论文代码下载链接

1.LARGE SCALE GAN TRAINING FOR HIGH FIDELITY NATURAL IMAGE SYNTHESIS
https://github.com/sxhxliang/BigGAN-pytorch
2. Few-shot Video-toVideo Synthesis
https://github.com /NVlabs/few-shotvid2vid
3. First Order Motion Model for Image Animation
https://github.com/AliaksandrSiarohin/first-order-model
4.StarGAN v2: Diverse Image Synthesis for Multiple Domains
https://github.com/clovaai/stargan-v2
5. U-GAT-IT: Unsupervised Generative Attentional Networks with Adaptive Layer-Instance Normalization for Image-to-Image Translation
https://github.com/znxlwm/UGATIT-pytorch

飞桨API与torch对照表,点击链接下载

https://pan.baidu.com/s/12Cl6DAa2eJ8GdTUXjNbqJA 密码:ajf7

  相关解决方案