• 大小: 12KB
    文件类型: .py
    金币: 2
    下载: 1 次
    发布日期: 2021-05-14
  • 语言: Python
  • 标签: GAN  

资源简介

适合生成对抗网络的初学者,做个小实验,锻炼自己。从小程序做起,一步一步学习。GAN训练起来比较困难,所以是个难题。

资源截图

代码片段和文件信息

#Author:WangJuan
import argparse#解析命令行参数和选项
import numpy as np# numpy科学计算的库,可以提供矩阵运算
from scipy.stats import norm#scipy数值计算库
import tensorflow as tf
import matplotlib.pyplot as plt
from matplotlib import animation#matplotlib绘图库
import seaborn as sns# 数据模块可视化


sns.set(color_codes=True) #sns.set(style=“white“ palette=“muted“ color_codes=True)
#   #set( )设置主题,调色板更常用 muted柔和的
seed = 42# 设置seed,使得每次生成的随机数相同
np.random.seed(seed)
tf.set_random_seed(seed)

class DataDistribution(object):#真实数据分布(蓝色的线)
    def __init__(self):
        self.mu = 4#均值
        self.sigma = 0.5#标准差

    def sample(self N):
        samples = np.random.normal(self.mu self.sigma N)
        samples.sort()
        return samples

class GeneratorDistribution(object):#G网络的输入,随机噪声分布
    def __init__(self range):
        self.range = range


    def sample(self N):
        #均匀分布
        return np.linspace(-self.range self.range N) + \
            np.random.random(N) * 0.01#随机0-1
        ‘‘‘
        samples = np.random.normal(4 0.5 N)
        samples.sort()
        return samples
        ‘‘‘
def linear(input output_dim scope=None stddev=1.0):#w和b参数的初始化#线性计算,计算y=wx+b
     norm = tf.random_normal_initializer(stddev=stddev)#用高斯的随机初始化给w进行初始化
     const = tf.constant_initializer(0.0)#用常量0给b进行初始化
     with tf.variable_scope(scope or ‘linear‘):#变量域为scope(默认继承外层变量域)的值当值为None时,域为linear
        w = tf.get_variable(‘w‘ [input.get_shape()[1] output_dim] initializer=norm)#input.get_shape()[1]获取input的列数
        b = tf.get_variable(‘b‘ [output_dim] initializer=const)
        return tf.matmul(input w) + b

def generator(input h_dim):  # 生成网络
    # h0 = tf.nn.tanh(linear(input h_dim ‘g0‘))
     # h0 = tf.nn.sigmoid(linear(input h_dim ‘g0‘))
    h0 = tf.nn.relu(linear(input h_dim ‘g0‘))  # 较好
    # h1 = tf.nn.relu(linear(h0 h_dim ‘g1‘))#
    # h2 = linear(h1 1 ‘g2‘)
    # return h2
    # h0 = tf.nn.softplus(linear(input h_dim ‘g0‘))#原
    h1 = linear(h0 1 ‘g1‘)  # 原
    return h1  # 原

def discriminator(input h_dim):  # 初始判别网络
    h0 = tf.tanh(linear(input h_dim * 2 ‘d0‘))  # 第一层的输出
    h1 = tf.tanh(linear(h0 h_dim * 2 ‘d1‘))
    h2 = tf.tanh(linear(h1 h_dim * 2 scope=‘d2‘))

    h3 = tf.sigmoid(linear(h2 1 scope=‘d3‘))  # 使用sigmod激活函数将最终输出结果固定在0-1之间,方便对最终结果的真假概率进行计算
    return h3  #

def optimizer(loss var_list initial_learning_rate):  # 学习率不断衰减
    decay = 0.95
    num_decay_steps = 150  # 每迭代150次进行一次衰减,
    batch = tf.Variable(0)
    learning_rate = tf.train.exponential_decay(
        initial_learning_rate
        batch
        num_decay_steps
        decay
        staircase=True
        )
    optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(  # 使用梯度下降求解器来最小化loss值,对var_list中的变量进行优化
            loss
            global_step=batch
            var_list=var_list
        )
    return optimizer


class GAN(object):  # 模型
    def __init__(self data

评论

共有 条评论