Shortcuts

生成模型

CycleGAN (ICCV’2017)

CycleGAN (ICCV'2017)
@inproceedings{zhu2017unpaired,
  title={Unpaired image-to-image translation using cycle-consistent adversarial networks},
  author={Zhu, Jun-Yan and Park, Taesung and Isola, Phillip and Efros, Alexei A},
  booktitle={Proceedings of the IEEE international conference on computer vision},
  pages={2223--2232},
  year={2017}
}

我们使用“FID”和“IS”指标来评估 CycleGAN 的生成性能。

算法 FID IS 下载
官方 facades 123.626 1.638 -
复现 facades 118.297 1.584 模型 | 日志
官方 facades-id0 119.726 1.697 -
复现 facades-id0 126.316 1.957 模型 | 日志
官方 summer2winter 77.342 2.762 -
复现 summer2winter 76.959 2.768 模型 | 日志
官方 winter2summer 72.631 3.293 -
复现 winter2summer 72.803 3.069 模型 | 日志
官方 summer2winter-id0 76.773 2.750 -
复现 summer2winter-id0 76.018 2.735 模型 | 日志
官方 winter2summer-id0 74.239 3.110 -
复现 winter2summer-id0 73.498 3.130 模型 | 日志
官方 horse2zebra 62.111 1.375 -
复现 horse2zebra 63.810 1.430 模型 | 日志
官方 horse2zebra-id0 77.202 1.584 -
复现 horse2zebra-id0 71.675 1.542 模型 | 日志
官方 horse2zebra 138.646 3.186 -
复现 zebra2horse 139.279 3.093 模型 | 日志
官方 horse2zebra-id0 137.050 3.047 -
复现 zebra2horse-id0 132.369 2.958 模型 | 日志
官方平均值 95.935 2.444 -
复现平均值 95.102 2.427 -

注:随着更大的身份损失,图像到图像的转换会变得更加保守,这导致转换较少。原作者没有提及身份损失的最佳权重。因此,除了默认设置之外,我们还将身份损失的权重设置为 0(表示 id0)以进行更全面的比较。



Pix2Pix (CVPR’2017)

Pix2Pix (CVPR'2017)
@inproceedings{isola2017image,
  title={Image-to-image translation with conditional adversarial networks},
  author={Isola, Phillip and Zhu, Jun-Yan and Zhou, Tinghui and Efros, Alexei A},
  booktitle={Proceedings of the IEEE conference on computer vision and pattern recognition},
  pages={1125--1134},
  year={2017}
}

我们使用 FIDIS 指标来评估 pix2pix 的生成表现。

算法 FID IS 下载
官方 facades 119.135 1.650 -
复现 facades 127.792 1.745 模型 | 日志
官方 maps-a2b 149.731 2.529 -
复现 maps-a2b 118.552 2.689 模型 | 日志
官方 maps-b2a 102.072 3.552 -
复现 maps-b2a 92.798 3.473 模型 | 日志
官方 edges2shoes 75.774 2.766 -
复现 edges2shoes 85.413 2.747 模型 | 日志
官方平均值 111.678 2.624 -
复现平均值 106.139 2.664 -

注:我们严格遵守论文第3.3节中的设置:

At inference time, we run the generator net in exactly the same manner as during the training phase. This differs from the usual protocol in that we apply dropout at test time, and we apply batch normalization using the statistics of the test batch, rather than aggregated statistics of the training batch.

即使用 model.train() 模式,因此可能会导致每次推理结果略有不同。



Read the Docs v: v0.15.1
Versions
latest
stable
v0.15.1
v0.15.0
v0.14.0
v0.13.0
v0.12.0
Downloads
On Read the Docs
Project Home
Builds

Free document hosting provided by Read the Docs.