当前位置:   article > 正文

实验4:自然语言处理前馈网络

实验4:自然语言处理前馈网络

在自然语言处理(NLP)中,前馈网络(FeedForward Network, FFN)是一种常见的神经网络结构,用于处理和学习文本数据。

  • 结构

    • 前馈网络由若干个全连接层(全连接神经网络)组成,每一层的神经元与上一层的所有神经元相连。每个神经元接收来自上一层所有神经元的输入,并产生一个输出,这些输出作为下一层的输入。
  • 功能

    • 前馈网络的主要功能是通过多层非线性变换来提取和组合输入特征,以生成最终的输出。在自然语言处理中,这种网络通常用于实现诸如文本分类、情感分析、命名实体识别等任务。
  • 应用

    • 在文本处理任务中,前馈网络经常被用作神经网络模型的基础组件,如在Transformer模型的编码器(Transformer Encoder)中,每个注意力层后面都跟着一个前馈神经网络层。
  • 激活函数

    • 每个前馈网络层通常包括一个激活函数,如ReLU(Rectified Linear Unit)或者其它非线性函数,以增加网络的表达能力和非线性拟合能力。
  • 训练

    • 前馈网络通常通过反向传播(Backpropagation)算法进行训练,目标是最小化模型的损失函数,使得模型能够从数据中学习出有效的特征表示和模式。
  • 1.实验简介:在本次实验中,我们将研究称为前馈网络的神经网络模型,以及两种前馈神经网络:多层感知器和卷积神经网络。首先我们要了解多层感知器,它是在结构上扩展了我们研究过的简单感知器,将多个感知器分组在一个单层,并将多个层叠加在一起。本次实验研究的第二种前馈神经网络是卷积神经网络,在处理数字信号时深受窗口滤波器的启发。通过这种窗口特性,卷积神经网络能够在输入中学习局部化模式,这不仅使其成为计算机视觉的主轴,而且是检测单词和句子等序列数据中的子结构的理想候选。
  • 2.实验内容:多层感知器和卷积神经网络被分组在一起,因为它们都是前馈神经网络,并且与另一类神经网络——递归神经网络(RNNs)形成对比,递归神经网络(RNNs)允许反馈(或循环),这样每次计算都可以从之前的计算中获得信息。我们介绍这些不同的模型时,需要理解事物如何工作的一个有用方法是在计算数据张量时注意它们的大小和形状。每种类型的神经网络层对它所计算的数据张量的大小和形状都有特定的影响,理解这种影响可以极大地有助于对这些模型的深入理解。
  • 3.什么是The Multilayer Perceptron(多层感知器)?

    多层感知器(Multilayer Perceptron, MLP)是一种经典的前馈神经网络模型,用于处理和学习复杂的非线性关系。

  • 结构:多层感知器由多个层组成,每个层由多个神经元组成。最常见的结构是包含一个输入层、若干个隐藏层(每个隐藏层都是前馈的),以及一个输出层。每个神经元都与前一层的所有神经元连接,形成一个完全连接的网络结构。

  • 功能:多层感知器通过多层非线性变换(每层都包括一个激活函数)来学习数据中的复杂模式和特征。这使得它在处理非线性关系和复杂数据模式时表现出色,适合用于分类、回归和其他监督学习任务。

  • 激活函数:每个神经元通常都使用非线性激活函数(如ReLU、Sigmoid、Tanh等),以增强模型的表达能力和学习非线性关系的能力。

  • 训练:多层感知器通常通过反向传播算法(Backpropagation)和优化方法(如梯度下降)来训练。训练过程的目标是最小化损失函数,即预测值与真实标签之间的差异,从而使模型能够准确地预测新数据的结果。

  • 应用:在自然语言处理中,多层感知器可以用于诸如情感分析、文本分类、命名实体识别等任务。它们也被广泛用于计算机视觉中的图像识别和语音识别等领域。

  • 局限性:多层感知器的主要局限性之一是处理序列数据(如文本和时间序列)时的挑战。它们通常需要额外的技术或结构变体(如循环神经网络、长短期记忆网络等)来有效地处理这类数据。

  • 4.卷积神经网络结构
  • 输入层:接收原始数据,并将其转化为适合卷积操作的形式,通常是一个多维的数组。

  • 卷积层:用于对输入数据进行特征提取。卷积层包含多个卷积核,每个卷积核与输入数据进行卷积操作,生成特征图。

  • 池化层:用于对特征图进行下采样,减少特征图的尺寸和参数数量,常用的池化操作有最大池化和平均池化。

  • 全连接层:将池化层输出的特征图转化为一个一维向量,并通过全连接层进行分类或回归等任务。

  • 输出层:根据具体的任务,选择适当的激活函数来处理全连接层的输出,例如对于二分类任务可以使用Sigmoid函数,多分类任务可以使用Softmax函数。

  • 5.多层感知机处理姓氏分类到其原籍国任务

  • 代码实现:

    1. import torch.nn as nn
    2. import torch.nn.functional as F
    3. class MultilayerPerceptron(nn.Module):
    4. def __init__(self, input_dim, hidden_dim, output_dim):
    5. """
    6. Args:
    7. input_dim (int): the size of the input vectors
    8. hidden_dim (int): the output size of the first Linear layer
    9. output_dim (int): the output size of the second Linear layer
    10. """
    11. super(MultilayerPerceptron, self).__init__()
    12. self.fc1 = nn.Linear(input_dim, hidden_dim)
    13. self.fc2 = nn.Linear(hidden_dim, output_dim)
    14. def forward(self, x_in, apply_softmax=False):
    15. """The forward pass of the MLP
    16. Args:
    17. x_in (torch.Tensor): an input data tensor.
    18. x_in.shape should be (batch, input_dim)
    19. apply_softmax (bool): a flag for the softmax activation
    20. should be false if used with the Cross Entropy losses
    21. Returns:
    22. the resulting tensor. tensor.shape should be (batch, output_dim)
    23. """
    24. intermediate = F.relu(self.fc1(x_in))
    25. output = self.fc2(intermediate)
    26. if apply_softmax:
    27. output = F.softmax(output, dim=1)
    28. return output

  • 训练函数定义:

    1. classifier = classifier.to(args.device)
    2. dataset.class_weights = dataset.class_weights.to(args.device)
    3. try:
    4. for epoch_index in range(args.num_epochs):
    5. train_state['epoch_index'] = epoch_index
    6. for batch_index, batch_dict in enumerate(batch_generator):
    7. # the training routine is these 5 steps:
    8. # --------------------------------------
    9. # step 1. zero the gradients
    10. optimizer.zero_grad()
    11. # step 2. compute the output
    12. y_pred = classifier(batch_dict['x_surname'])
    13. # step 3. compute the loss
    14. loss = loss_func(y_pred, batch_dict['y_nationality'])
    15. loss_t = loss.item()
    16. running_loss += (loss_t - running_loss) / (batch_index + 1)
    17. # step 4. use loss to produce gradients
    18. loss.backward()
    19. train_state['train_loss'].append(running_loss)
    20. train_state['train_acc'].append(running_acc)
    21. train_bar.n = 0
    22. val_bar.n = 0
    23. epoch_bar.update()
    24. except KeyboardInterrupt:
    25. print("Exiting loop")

  • 训练损失和准确率:

    1. classifier.load_state_dict(torch.load(train_state['model_filename']))
    2. for batch_index, batch_dict in enumerate(batch_generator):
    3. # compute the output
    4. y_pred = classifier(batch_dict['x_surname'])
    5. # compute the loss
    6. loss = loss_func(y_pred, batch_dict['y_nationality'])
    7. loss_t = loss.item()
    8. running_loss += (loss_t - running_loss) / (batch_index + 1)
    9. train_state['test_loss'] = running_loss
    10. train_state['test_acc'] = running_acc
    11. print("Test loss: {};".format(train_state['test_loss']))
    12. print("Test Accuracy: {}".format(train_state['test_acc']))

  • 实验结果输出:

  • 实验总结:MLP是将张量映射到其他张量的线性层。在每一对线性层之间使用非线性来打破线性关系,并允许模型扭曲向量空间,在分类设置中,这种扭曲应该导致类之间的线性可分性。另外,可以使用softmax函数将MLP输出解释为概率,但是不应该将softmax与特定的损失函数一起使用,因为底层实现可以利用高级数学/计算捷径。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小惠珠哦/article/detail/784090
推荐阅读
相关标签
  

闽ICP备14008679号