当前位置:   article > 正文

从jieba分词到BERT-wwm——中文自然语言处理(NLP)基础分享系列(12)_chinese-bert-wwm-ext

chinese-bert-wwm-ext

在Huggingface transformers平台上微调BERT-wwm-ext

今天是本系列的最后一期。

transformer 与 transformers

为了避免命名带来的混淆,我们首先来厘清一下:transformer 与 transformers

• transformer

在上一期里,我们已经做过介绍,transformer是一种具有多头自注意力机制的、可以取代RNN/LSTM的神经网络单元结构。

本质上它是一种深度学习技术。

• transformers

今天提到的transformers,是Huggingface声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】

推荐阅读
相关标签