玖叶教程网

前端编程开发入门

机器学习100天-Day2301 深层神经网络DNN(Relu & LeakyRelu)

说明:本文依据《Sklearn 与 TensorFlow 机器学习实用指南》完成,所有版权和解释权均归作者和翻译成员所有,我只是搬运和做注解。

进入第二部分深度学习

第十一章训练深层神经网络

在第十章以及之前tf练习中,训练的深度神经网络都只是简单的demo,如果增大数据量或是面对更多的特征,遇到的问题就会棘手起来。

  • 梯度消失(梯度爆炸),这会影响深度神经网络,并使较低层难以训练
  • 训练效率
  • 包含数百万参数的模型将会有严重的过拟合训练集的风险

本章中,教程从解释梯度消失问题开始,并探讨解决这个问题的一些最流行的解决方案。 接下来讨论各种优化器,与普通梯度下降相比,它们可以加速大型模型的训练。 介绍大型神经网络正则化技术。

# 常用的引入和初始化设定
import numpy as np
import os
import tensorflow as tf
# to make this notebook's output stable across runs
def reset_graph(seed=42):
 tf.reset_default_graph()
 tf.set_random_seed(seed)
 np.random.seed(seed)
import matplotlib
import matplotlib.pyplot as plt
plt.rcParams['axes.labelsize'] = 14
plt.rcParams['xtick.labelsize'] = 12
plt.rcParams['ytick.labelsize'] = 12
# Where to save the figures
PROJECT_ROOT_DIR = "."
CHAPTER_ID = "deep"
def save_fig(fig_id, tight_layout=True):
 path = os.path.join(PROJECT_ROOT_DIR, "images", CHAPTER_ID, fig_id + ".png")
 print("Saving figure", fig_id)
 if tight_layout:
 plt.tight_layout()
 plt.savefig(path, format='png', dpi=300)

1.梯度消失/爆炸问题

什么是梯度消失/爆炸

传播误差的梯度,一旦该算法已经计算了网络中每个参数的损失函数的梯度,它就使用这些梯度来用梯度下降步骤来更新每个参数。

  • 梯度消失:梯度往往变得越来越小,随着算法进展到较低层。 结果,梯度下降更新使得低层连接权重实际上保持不变,并且训练永远不会收敛到良好的解决方案。 这被称为梯度消失问题。
  • 梯度爆炸:梯度可能变得越来越大,许多层得到了非常大的权重更新,算法发散。这是梯度爆炸的问题,在循环神经网络中最为常见。
  • 深度神经网络梯度不稳定,不同的层次可能以非常不同的速度学习。

目前流行的激活函数sigmoid等,可以看到当输入值的范数变大时,函数饱和在 0 或 1,导数非常接近 0。

因此,当反向传播开始时,它几乎没有梯度通过网络传播回来,而且由于反向传播通过顶层向下传递,所以存在的小梯度不断地被稀释,因此较低层确实没有任何东西可用。

这样就导致了每一层之间的信息无法很好传递。

def logit(z):
 return 1/(1+np.exp(-z))
z=np.linspace(-5,5,200)
plt.plot([-5, 5], [0, 0], 'k-')
plt.plot([-5, 5], [1, 1], 'k--')
plt.plot([0, 0], [-0.2, 1.2], 'k-')
plt.plot([-5, 5], [-3/4, 7/4], 'g--')
plt.plot(z, logit(z), "b-", linewidth=2)
props = dict(facecolor='black', shrink=0.1)
plt.annotate('Saturating', xytext=(3.5, 0.7), xy=(5, 1), arrowprops=props, fontsize=14, ha="center")
plt.annotate('Saturating', xytext=(-3.5, 0.3), xy=(-5, 0), arrowprops=props, fontsize=14, ha="center")
plt.annotate('Linear', xytext=(2, 0.2), xy=(0, 0.5), arrowprops=props, fontsize=14, ha="center")
plt.grid(True)
plt.title("Sigmoid activation function", fontsize=14)
plt.axis([-5, 5, -0.2, 1.2])
save_fig("sigmoid_saturation_plot")
plt.show()

解决办法

Glorot 和 Bengio 提出需要信号在两个方向上正确地流动:在进行预测时是正向的,在反向传播梯度时是反向的。 我们不希望信号消失,也不希望它爆炸并饱和。

为了使信号正确流动,作者认为需要每层输出的方差等于其输入的方差。实际上不可能保证两者都是一样的,除非这个层具有相同数量的输入和输出连接,他们提出了折衷办法:随机初始化连接权重必须如公式所描述的那样。其中n_inputs和n_outputs是权重正在被初始化的层(也称为扇入和扇出)的输入和输出连接的数量。 这种初始化策略通常被称为Xavier初始化。

公式如下

在满足之前要求的每层输出的方差等于其输入的方差的情况下时n_inputs = n_outputs,公式可以简化为

现在发展出了不同的激活函数,logistic、He、Relu等。Tensorflow修改了部分方法名称。

  • activation_fn变成激活(类似地,_fn后缀从诸如normalizer_fn之类的其他参数中移除)
  • weights_initializer变成kernel_initializer
  • 默认激活现在是None,而不是tf.nn.relu
  • 不支持正则化的参数

2.非饱和激活函数

这里使用的使Relu作为激活函数,优点是对于正值不会饱和,而且计算速率更快。

但是存在的问题是Relu死区

Relu死区

在训练过程中,一些神经元死亡,意味着它们停止输出 0 以外的任何东西。

在某些情况下,你可能会发现你网络的一半神经元已经死亡,特别是如果你使用大学习率。

在训练期间,如果神经元的权重得到更新,使得神经元输入的加权和为负,则它将开始输出 0 。当这种情况发生时,由于当输入为负时,ReLU函数的梯度为0,神经元不可能恢复生机。

使用leakyRelu

为了解决Relu死区问题,可以使用Relu函数的变体leaky RelU。

这个函数定义为LeakyReLUα(z)= max(αz,z)

超参数α定义了函数“leaks”的程度:它是z < 0时函数的斜率,通常设置为 0.01。这个小斜坡确保 leaky ReLU 永不死亡;他们可能会长期昏迷,但他们有机会最终醒来。

也有文献指出当alpha=0.2时,即是设定一个超大的超参数的性能更优(在大型的数据集中表现良好,但是在小数据集中会出现过拟合的现象)

def logit(z):
 return 1/(1+np.exp(-z))
z=np.linspace(-5,5,200)
#重置tf的图
reset_graph()
n_inputs=28*28
n_hidden1=300
X=tf.placeholder(tf.float32,shape=(None,n_inputs),name="X")
he_init=tf.variance_scaling_initializer()
hidden1=tf.layers.dense(X,n_hidden1,activation=tf.nn.relu,kernel_initializer=he_init,name="hidden1")
#超参数α定义了函数“leaks”的程度:它是z < 0时函数的斜率,通常设置为 0.01
def leaky_relu(z, alpha=0.01):
 return np.maximum(alpha*z, z)
plt.plot(z,leaky_relu(z,0.05),"b-",linewidth=2)
plt.plot([-5,5],[0,0],'k-')
plt.plot([0,0],[-0.5,4.2],'k-')
plt.grid(True)
props=dict(facecolor='black', shrink=0.1)
plt.annotate('Leak', xytext=(-3.5, 0.5), xy=(-5, -0.2), arrowprops=props, fontsize=14, ha="center")
plt.title("Leaky ReLU activation function", fontsize=14)
plt.axis([-5, 5, -0.5, 4.2])
save_fig("leaky_relu_plot")
plt.show()

发表评论:

控制面板
您好,欢迎到访网站!
  查看权限
网站分类
最新留言