当前位置:   article > 正文

深度学习--TensorFlow(7)拟合(过拟合处理)(数据增强、提前停止训练、dropout、正则化、标签平滑)_提前停止,l2正则化,dropout minist

提前停止,l2正则化,dropout minist

目录

拟合

1、拟合情况

2、抵抗过拟合方法

过拟合处理(防止过拟合):

一、数据增强

1、设置图像生成器

2、载入图片

3、图像转三维数据

4、三维转四维

5、生成图片(用图像生成器)

代码

二、提前停止训练(Early-Stopping)

1、设置回调函数(设置提前停止训练)

2、训练(应用回调函数)

代码

三、Dropout

1、搭建神经网络进行对比

1-1、普通神经网络

1-2、dropout神经网络

2、训练

3、画图

代码

四、正则化

1、L1正则化

2、L2正则化

步骤:

1、神经网络中添加正则化操作

2、编译

3、训练

代码

五、标签平滑

1、在损失函数中定义平滑系数

2、编译

3、训练

代码


拟合

1、拟合情况

拟合分为三种情况:欠拟合、正确拟合、过拟合

训练集中: 

训练集中,过拟合的效果最好。

测试集中:

不难看出,测试集中是正确拟合的效果最好。

总结:过拟合虽然在训练集中的效果非常好,但是一旦到了测试集,效果就不如正确拟合好

        模型复杂度在深度学习中主要指的是网络的层数以及每层网络神经元的各种,网络的层

数越多越复杂,神经元的个数越多越复杂。

        训练集的误差是随着模型复杂度的提升而不断降低的,测试集的误差是随着模型复杂度的提升而先下降后上升。

2、抵抗过拟合方法

增大数据集
提前停止(Early-Stopping)
Dropout
正则化
标签平滑(label Smoothing)

下面讲解一些过拟合处理方法:

过拟合处理(防止过拟合):

一、数据增强

图像领域数据增强常用方式:

1、旋转/反射变换:随机旋转图像一定的角度,改变图像朝向。

2、翻转变换:沿水平方向或竖直方向翻转图像。

3、缩放变换:按照一定的比例放大或缩小图像。

4、平移变换:在图像平面上对图像以一定方式平移。

5、尺度变换:对图像按照一定的尺度因子,进行放大或缩小。

6、对比度变换:在图像的HSV色彩空间中,保持色调H不变,改变饱和度S和亮度V,对每个像素的S和V分量进行指数运算。

7、噪声扰动:对图像的每个RGB随机噪声扰动。(噪声有:椒盐噪声、高斯噪声)

8、颜色变换:对图像的颜色进行一些有规律地调整。

 

步骤:

1、设置图像生成器

  1. # 1、设置图像生成器
  2. datagen = ImageDataGenerator(
  3. rotation_range = 40, # 随机旋转度数
  4. width_shift_range = 0.2, # 随机水平平移
  5. height_shift_range = 0.2, # 随机竖直平移
  6. rescale = 1/255, # 数据归一化
  7. shear_range = 30, # 随机错切变换
  8. zoom_range = 0.2, # 随机放大
  9. horizontal_flip = True, # 水平翻转
  10. brightness_range = (0.7,1.3), # 亮度变化
  11. fill_mode = 'nearest',) # 填充方式

2、载入图片

  1. # 2、载入图片
  2. img = load_img('Resource/test11.jpg')

3、图像转三维数据

  1. # 3、图像转三维数据(array:3维(height,width,channel))
  2. img = img_to_array(img)

4、三维转四维

  1. # 4、三维转四维(然后再做数据增强)
  2. # 在第 0 个位置增加一个维度
  3. # 4 维(1,height,width,channel)
  4. img = np.expand_dims(img,0)

5、生成图片(用图像生成器)

  1. # 5、生成20张图片
  2. i = 0 # 生成的图片都保存在 images 文件夹中,文件名前缀为 new_image,图片格式为 jpeg
  3. for batch in datagen.flow(img, batch_size=1, save_to_dir='images', save_prefix='new_image', save_format='jpeg'):
  4. i += 1
  5. if i==20:
  6. break

 得到这一系列的图像。

代码

  1. # 图像数据增强
  2. # 注:需要提前有一个文件夹(比如这里设置文件夹名为images,则需要提前准备一个images文件夹)
  3. import os
  4. os.environ['TF_CPP_MIN_LOG_LEVEL']='2'
  5. from tensorflow.keras.preprocessing.image import ImageDataGenerator,img_to_array, load_img
  6. import numpy as np
  7. # 1、设置图像生成器
  8. datagen = ImageDataGenerator(
  9. rotation_range = 40, # 随机旋转度数
  10. width_shift_range = 0.2, # 随机水平平移
  11. height_shift_range = 0.2, # 随机竖直平移
  12. rescale = 1/255, # 数据归一化
  13. shear_range = 30, # 随机错切变换
  14. zoom_range = 0.2, # 随机放大
  15. horizontal_flip = True, # 水平翻转
  16. brightness_range = (0.7,1.3), # 亮度变化
  17. fill_mode = 'nearest', # 填充方式
  18. )
  19. # 2、载入图片
  20. img = load_img('Resource/test11.jpg')
  21. # 3、图像转三维数据(array:3维(height,width,channel))
  22. img = img_to_array(img)
  23. # 4、三维转四维(然后再做数据增强)
  24. # 在第 0 个位置增加一个维度 4维:(1,height,width,channel)
  25. img = np.expand_dims(img,0)
  26. # 5、生成20张图片
  27. i = 0 # 生成的图片都保存在 images 文件夹中,文件名前缀为 new_image,图片格式为 jpeg
  28. for batch in datagen.flow(img, batch_size=1, save_to_dir='images', save_prefix='new_image', save_format='jpeg'):
  29. i += 1
  30. if i==20:
  31. break

二、提前停止训练(Early-Stopping)

Early-Stopping 是一种 提前结束训练 的策略用来防止过拟合。
        训练效果不会随着迭代次数的增加无限提高 记录到目前 为止最好的测试集准确率 p,之后连续 m 个周期没有超过最佳测试集准确率 p 时,则可以认 为 p 不再提高了,此时便可以提前停止迭代(Early-Stopping)。

1、设置回调函数(设置提前停止训练)

        设置val_accuracy为监测对象,记录每次的值,超过5次未超过之前的最佳值,则提前停止训练(早退)。

  1. # 6、设置回调函数(提前停止训练)
  2. early_stopping = EarlyStopping(monitor='val_accuracy', patience=5, verbose=1)
  3. # monitor='val_accuracy':监控验证集准确率
  4. # patience=5:连续5个周期没有超过最高的val_accuracy值,则提前停止训练
  5. # verbose=1:停止训练时提示 early stopping

2、训练(应用回调函数)

  1. # 7、训练(应用回调函数)
  2. model.fit(train_data, train_label, epochs=100, batch_size=32, validation_data=(test_data, test_label),
  3. callbacks=[early_stopping])
  4. # 回调函数(提前停止训练)

效果:

 

代码

  1. # 提前停止训练(Early_Callback)
  2. import os
  3. os.environ['TF_CPP_MIN_LOG_LEVEL']='2'
  4. import tensorflow as tf
  5. from tensorflow.keras.optimizers import SGD
  6. from tensorflow.keras.callbacks import EarlyStopping
  7. # 1、载入数据集
  8. mnist = tf.keras.datasets.mnist
  9. (train_data, train_label), (test_data, test_label) = mnist.load_data()
  10. # 2、归一化处理(有助于提升模型训练速度)
  11. train_data, test_data = train_data / 255.0, test_data / 255.0
  12. # 3、独热编码
  13. train_label = tf.keras.utils.to_categorical(train_label,num_classes=10)
  14. test_label = tf.keras.utils.to_categorical(test_label,num_classes=10) # 模型定义
  15. # 4、搭建神经网络
  16. model = tf.keras.models.Sequential([
  17. tf.keras.layers.Flatten(input_shape=(28, 28)), #数据压缩(三维->二维:(60000,28,28)->(60000,784)
  18. tf.keras.layers.Dense(10, activation='softmax')
  19. ])
  20. # 5、设置优化器、损失函数、标签
  21. model.compile(optimizer=SGD(0.5), loss='mse', metrics=['accuracy'])
  22. # EarlyStopping 是 Callbacks 的一种,callbacks用于指定在每个epoch或batch开始和结束的时候进行哪种特定操作
  23. # 6、设置回调函数(提前停止训练)
  24. early_stopping = EarlyStopping(monitor='val_accuracy', patience=5, verbose=1)
  25. # monitor='val_accuracy':监控验证集准确率
  26. # patience=5:连续5个周期没有超过最高的val_accuracy值,则提前停止训练
  27. # verbose=1:停止训练时提示 early stopping
  28. # 7、训练(应用回调函数)
  29. model.fit(train_data, train_label, epochs=100, batch_size=32, validation_data=(test_data, test_label),
  30. callbacks=[early_stopping])
  31. # 回调函数(提前停止训练)

三、Dropout

Dropout 也是一种用于抵抗过拟合的技术,它试图改变网络本身来对网络进行优化
Dropout 通常是在神经网络隐藏层的部分使用,使用的时候会临时关闭掉一部分的神经
,我们可以通过一个参数来控制神经元被关闭的概率 每一次都随机选择部分的神经元参与训练

1、搭建神经网络进行对比

1-1、普通神经网络

  1. # 4、搭建神经网络(normal)
  2. model = Sequential([
  3. Flatten(input_shape=(28, 28)),
  4. Dense(units=200,activation='tanh'),
  5. Dense(units=100,activation='tanh'),
  6. Dense(units=10,activation='softmax')
  7. ])

1-2、dropout神经网络

  1. # 4、搭建神经网络(Dropout)
  2. model_dropout = Sequential([
  3. Flatten(input_shape=(28, 28)),
  4. Dense(units=200,activation='tanh'),
  5. Dropout(0.4),
  6. Dense(units=100,activation='tanh'),
  7. Dropout(0.4),
  8. Dense(units=10,activation='softmax')
  9. ])

2、训练

  1. # 6、训练
  2. # 先训练正常模型
  3. history1 = model.fit(train_data, train_target, epochs=30, batch_size=32, validation_data=(test_data, test_target))
  4. # 再训练Dropout模型
  5. history2 = model_dropout.fit(train_data, train_target, epochs=30, batch_size=32, validation_data=(test_data, test_target))

3、画图

  1. # 7、画图
  2. # 画出 model1 验证集准确率曲线图
  3. plt.plot(np.arange(30), normal_history.history['val_accuracy'], c='b', label='normal')
  4. plt.plot(np.arange(30), dropout_history.history['val_accuracy'], c='y', label='dropout')
  5. # 横坐标(0~30) 获取训练结果 颜色 标签
  6. plt.legend()
  7. # x 坐标描述
  8. plt.xlabel('epochs')
  9. # y 坐标描述
  10. plt.ylabel('accuracy')
  11. # 显示图像
  12. plt.show()

normal:

 dropout:

        可以发现dropout的测试集正确率甚至比正确率还要高,这是因为:模型在训练的时候使用了dropout,但是在测试集的时候没有使用dropout。

        这里训练的次数比较少,如果训练更多的次数,那么dropout的测试集准确率将达到98.8%,比normal的测试集准确率还要高(98,2%)

代码

  1. # Dropout
  2. import os
  3. os.environ['TF_CPP_MIN_LOG_LEVEL']='2'
  4. import tensorflow as tf
  5. from tensorflow.keras.models import Sequential
  6. from tensorflow.keras.layers import Dense,Dropout,Flatten
  7. from tensorflow.keras.optimizers import SGD
  8. import matplotlib.pyplot as plt
  9. import numpy as np
  10. # 1、载入数据集
  11. mnist = tf.keras.datasets.mnist
  12. (train_data, train_target), (test_data, test_target) = mnist.load_data()
  13. # 2、归一化处理(有助于提升模型训练速度)
  14. train_data, test_data = train_data / 255.0, test_data / 255.0
  15. # 3、独热编码
  16. train_target = tf.keras.utils.to_categorical(train_target,num_classes=10)
  17. test_target = tf.keras.utils.to_categorical(test_target,num_classes=10) # 模型定义,model1 使用 Dropout
  18. # Dropout(0.4)表示隐藏层 40%神经元不工作
  19. # 4、搭建神经网络(normal)
  20. model = Sequential([
  21. Flatten(input_shape=(28, 28)),
  22. Dense(units=200,activation='tanh'),
  23. Dense(units=100,activation='tanh'),
  24. Dense(units=10,activation='softmax')
  25. ])
  26. # 4、搭建神经网络(Dropout)
  27. model_dropout = Sequential([
  28. Flatten(input_shape=(28, 28)),
  29. Dense(units=200,activation='tanh'),
  30. Dropout(0.4),
  31. Dense(units=100,activation='tanh'),
  32. Dropout(0.4),
  33. Dense(units=10,activation='softmax')
  34. ])
  35. # 5、设置优化器、损失、标签
  36. model.compile(optimizer=SGD(0.2), loss='categorical_crossentropy', metrics=['accuracy'])
  37. model_dropout.compile(optimizer=SGD(0.2), loss='categorical_crossentropy', metrics=['accuracy'])
  38. # 6、训练
  39. # 先训练正常模型
  40. normal_history = model.fit(train_data, train_target, epochs=30, batch_size=32, validation_data=(test_data, test_target))
  41. # 再训练Dropout模型
  42. dropout_history = model_dropout.fit(train_data, train_target, epochs=30, batch_size=32, validation_data=(test_data, test_target))
  43. # 7、画图
  44. # 画出 model1 验证集准确率曲线图
  45. plt.plot(np.arange(30), normal_history.history['val_accuracy'], c='b', label='normal')
  46. plt.plot(np.arange(30), dropout_history.history['val_accuracy'], c='y', label='dropout')
  47. # 横坐标(0~30) 获取训练结果 颜色 标签
  48. plt.legend()
  49. # x 坐标描述
  50. plt.xlabel('epochs')
  51. # y 坐标描述
  52. plt.ylabel('accuracy')
  53. # 显示图像
  54. plt.show()

四、正则化

        L1 和 L2 正则化的使用实际上就是在普通的代价函数(例如均方差代价函数或交叉熵代价函数)后面加上一个正则项最小化正则项的值,实际上就是让w的值接近于0

1、L1正则化

        L1 正则项会使得神经网络中的很多权值参数变为 0,如果神经网络中很多的权值都是 0 的
话那么可以认为网络的复杂度降低了,拟合能力也降低了,因此不容易出现过拟合的情况。

加上了L1正则项的交叉熵:

2、L2正则化

        L2正则项会使得神经网络的权值衰减,权值参数变为接近于 0 的值,注意这里的接近于 0
不是等于零,L2 正则化很少会使权值参数等于 0。

当w变得很小之后,wx+b的计算会变成一个接近0的值:

         正则化使得神经网络中增加了很多线性特征,减少了很多非线性特征,网络复杂度降低,所以不容易出现过拟合

步骤:

1、神经网络中添加正则化操作

设置L2正则化,正则化系数:0.0003。 

  1. # 4、神经网络(正则化:正则化系数:0.0003)
  2. model_l2 = Sequential([
  3. Flatten(input_shape=(28, 28)),
  4. Dense(units=200,activation='tanh',kernel_regularizer=l2(0.0003)),
  5. Dense(units=100,activation='tanh',kernel_regularizer=l2(0.0003)),
  6. Dense(units=10,activation='softmax',kernel_regularizer=l2(0.0003))
  7. ])

2、编译

  1. # 5、设置优化器、损失函数、标签
  2. model_l2.compile(optimizer=SGD(0.2), loss='categorical_crossentropy', metrics=['accuracy'])
  3. model.compile(optimizer=SGD(0.2), loss='categorical_crossentropy', metrics=['accuracy'])
  4. # categorical_crossentropy:交叉熵损失函数

3、训练

  1. # 6、训练
  2. # 先训练 model_l2
  3. history_l2 = model_l2.fit(train_data, train_target, epochs=30, batch_size=32, validation_data=(test_data,test_target))
  4. # 再训练 model
  5. history = model.fit(train_data, train_target, epochs=30, batch_size=32, validation_data=(test_data,test_target))

效果:

正常:

L2正则化:

代码

  1. # L2正则化
  2. import os
  3. os.environ['TF_CPP_MIN_LOG_LEVEL']='2'
  4. import tensorflow as tf
  5. from tensorflow.keras.models import Sequential
  6. from tensorflow.keras.layers import Dense,Dropout,Flatten
  7. from tensorflow.keras.optimizers import SGD
  8. import matplotlib.pyplot as plt
  9. import numpy as np
  10. # 使用 l1 或 l2 正则化
  11. from tensorflow.keras.regularizers import l1,l2
  12. # 1、载入数据
  13. mnist = tf.keras.datasets.mnist
  14. (train_data, train_target), (test_data, test_target) = mnist.load_data()
  15. # 2、归一化处理(有助于提升模型训练速度)
  16. train_data, test_data = train_data / 255.0, test_data / 255.0
  17. # 3、独热编码
  18. train_target = tf.keras.utils.to_categorical(train_target,num_classes=10)
  19. test_target = tf.keras.utils.to_categorical(test_target,num_classes=10) # 模型定义,model_l2 使用 l2 正则化 # l2(0.0003)表示使用 l2 正则化,正则化系数为 0.0003
  20. # 4、神经网络(正则化:正则化系数:0.0003)
  21. model_l2 = Sequential([
  22. Flatten(input_shape=(28, 28)),
  23. Dense(units=200,activation='tanh',kernel_regularizer=l2(0.0003)),
  24. Dense(units=100,activation='tanh',kernel_regularizer=l2(0.0003)),
  25. Dense(units=10,activation='softmax',kernel_regularizer=l2(0.0003))
  26. ])
  27. # 神经网络(正常,无正则化)
  28. model = Sequential([
  29. Flatten(input_shape=(28, 28)),
  30. Dense(units=200,activation='tanh'),
  31. Dense(units=100,activation='tanh'),
  32. Dense(units=10,activation='softmax')
  33. ])
  34. # 5、设置优化器、损失函数、标签
  35. model_l2.compile(optimizer=SGD(0.2), loss='categorical_crossentropy', metrics=['accuracy'])
  36. model.compile(optimizer=SGD(0.2), loss='categorical_crossentropy', metrics=['accuracy'])
  37. # categorical_crossentropy:交叉熵损失函数
  38. # 6、训练
  39. # 先训练 model_l2
  40. history_l2 = model_l2.fit(train_data, train_target, epochs=30, batch_size=32, validation_data=(test_data,test_target))
  41. # 再训练 model
  42. history = model.fit(train_data, train_target, epochs=30, batch_size=32, validation_data=(test_data,test_target))
  43. # 7、画图
  44. plt.plot(np.arange(30),history_l2.history['val_accuracy'], c='b',label='L2 Regularization') # 画出 model 验证集准确率曲线图
  45. plt.plot(np.arange(30),history.history['val_accuracy'], c='y',label='FC') # 图例
  46. plt.legend()
  47. # x 坐标描述
  48. plt.xlabel('epochs')
  49. # y 坐标描述
  50. plt.ylabel('accuracy')
  51. # 显示图像
  52. plt.show()

五、标签平滑

标签平滑(LSR):也称为标签平滑正则化。 

        我们在做分类模型的时候通常会把标签变成独热编码(one-hot),但是变成独热编码的标签在模型训练时会使得模型变得“极度自信”,容易产生过拟合

例:

        这个数字你能说它 100%就是 6 吗,不一定吧,它也有点像 2,说不定还是 1 或者 7 只不
过手滑了。所以让模型非常自信的认为图中的数字就是 6,独热编码(0,0,0,0,0,0,1,0,0,0),不
一定是合适的。可能把它的标签改成(0,0.02,0.2,0.01,0.01,0.01,0.7,0.03,0.01,0.01)会比较好
一点。
        在 MNIST 数据集里面实际上确实有一些数字会写得比较奇怪,让人也很难分辨,其它数
据集也会有类似的问题,所以让模型“过度自信”就不一定是好事了。

 

1、在损失函数中定义平滑系数

  1. # 定义交叉熵函数(设置平滑系数)
  2. loss = CategoricalCrossentropy(label_smoothing=0)
  3. loss_smooth = CategoricalCrossentropy(label_smoothing=0.1)
  4. # label_smoothing:平滑系数

2、编译

  1. # 编译
  2. model.compile(optimizer=SGD(0.2), loss=loss, metrics=['accuracy'])
  3. model_smooth.compile(optimizer=SGD(0.2), loss=loss_smooth, metrics=['accuracy'])

3、训练

  1. # 6、训练
  2. # 先训练 model
  3. history = model.fit(train_data, train_target, epochs=12, batch_size=32, validation_data=(test_data,test_target))
  4. # 再训练 model_smooth
  5. history_smooth = model_smooth.fit(train_data, train_target, epochs=12, batch_size=32, validation_data=(test_data,test_target))

效果: 

 

代码

  1. # 标签平滑
  2. import os
  3. os.environ['TF_CPP_MIN_LOG_LEVEL']='2'
  4. import tensorflow as tf
  5. from tensorflow.keras.models import Sequential
  6. from tensorflow.keras.layers import Dense,Dropout,Flatten
  7. from tensorflow.keras.optimizers import SGD
  8. from tensorflow.keras.losses import CategoricalCrossentropy
  9. import matplotlib.pyplot as plt
  10. import numpy as np
  11. # 1、载入数据
  12. mnist = tf.keras.datasets.mnist
  13. (train_data, train_target), (test_data, test_target) = mnist.load_data()
  14. # 2、归一化处理(有助于提升模型训练速度)
  15. train_data, test_data = train_data / 255.0, test_data / 255.0
  16. # 3、独热编码
  17. train_target = tf.keras.utils.to_categorical(train_target,num_classes=10)
  18. test_target = tf.keras.utils.to_categorical(test_target,num_classes=10) # 模型定义,model 不用 label smoothing
  19. # 4、神经网络(普通)
  20. model = Sequential([
  21. Flatten(input_shape=(28, 28)),
  22. Dense(units=200,activation='tanh'),
  23. Dense(units=100,activation='tanh'),
  24. Dense(units=10,activation='softmax')
  25. ])
  26. # 神经网络(标签平滑)
  27. model_smooth = Sequential([
  28. Flatten(input_shape=(28, 28)),
  29. Dense(units=200,activation='tanh'),
  30. Dense(units=100,activation='tanh'),
  31. Dense(units=10,activation='softmax')
  32. ])
  33. # 5、编译
  34. # 定义交叉熵函数(设置平滑系数)
  35. loss = CategoricalCrossentropy(label_smoothing=0)
  36. loss_smooth = CategoricalCrossentropy(label_smoothing=0.1)
  37. # label_smoothing:平滑系数
  38. # 编译
  39. model.compile(optimizer=SGD(0.2), loss=loss, metrics=['accuracy'])
  40. model_smooth.compile(optimizer=SGD(0.2), loss=loss_smooth, metrics=['accuracy'])
  41. # 6、训练
  42. # 先训练 model
  43. history = model.fit(train_data, train_target, epochs=12, batch_size=32, validation_data=(test_data,test_target))
  44. # 再训练 model_smooth
  45. history_smooth = model_smooth.fit(train_data, train_target, epochs=12, batch_size=32, validation_data=(test_data,test_target))
  46. # 7、画图
  47. plt.plot(np.arange(12),history.history['val_accuracy'],c='b',label='without LSR') # 画出 model_smooth 验证集准确率曲线图
  48. plt.plot(np.arange(12),history_smooth.history['val_accuracy'],c='y',label='LSR') # 图例
  49. plt.legend()
  50. # x 坐标描述
  51. plt.xlabel('epochs')
  52. # y 坐标描述
  53. plt.ylabel('accuracy')
  54. # 显示图像
  55. plt.show()

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/255251
推荐阅读
相关标签
  

闽ICP备14008679号