赞
踩
在Huggingface transformers平台上微调BERT-wwm-ext
今天是本系列的最后一期。
为了避免命名带来的混淆,我们首先来厘清一下:transformer 与 transformers。
在上一期里,我们已经做过介绍,transformer是一种具有多头自注意力机制的、可以取代RNN/LSTM的神经网络单元结构。
本质上它是一种深度学习技术。
今天提到的transformers,是Huggingface声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。