编辑
2023-05-05
深度学习
0

Batch Normalization是对每个batch的数据进行归一化,即对每个特征在batch内进行均值和方差的计算,然后对该batch内的所有样本进行归一化。Batch Normalization可以使得每个特征的均值和方差都接近于0和1。

编辑
2023-04-21
深度学习
0
编辑
2023-04-04
深度学习
0

2019 CVPR: Inverse Cooking: Recipe Generation from Food Images

image.png

编辑
2023-03-13
深度学习
0

好的这次来折腾CycleGAN,考虑到只是瞎折腾一下,并没有特别精读这篇论文,只是参照官方给的源码以及kaggle上大佬写的程序来学习的。

论文地址:https://arxiv.org/pdf/1703.10593.pdf 参考内容:CycleGAN论文详解

Image-to-Image Translation using Cycle-Consistent Adversarial Networks

编辑
2023-03-12
深度学习
0

好的,我们今天来玩GAN。 这次要折腾的是生成模型网络的开篇之作Generative Adversarial Networks所提及的模型,也就是常叫的Original GAN,作者Goodfellow也是相当出名(其实我主要就知道他跟lstm之父互喷那事。) 文章主要参考了下面的代码: https://github.com/MaximeVandegar/Papers-in-100-Lines-of-Code/blob/main/Generative_Adversarial_Networks/GANs.py