当前位置:   article > 正文

BERT 预训练学习(数据:样本构建、输入格式;算法:transformer、mlm和nsp任务)_tensorflow bertmlm训练

tensorflow bertmlm训练
任务:MLM完形填空、下一句预测
数据:构建样本数据及label,输入格式
  • 1
  • 2

参考:

1)**https://github.com/DA-southampton/TRM_tutorial/tree/main/BERT%E4%BB%A3%E7%A0%81%E4%BB%8E%E9%9B%B6%E8%A7%A3%E8%AF%BB
2)
**https://github.com/bojone/bert4keras/tree/master/pretraining

3)**https://zhuanlan.zhihu.com/p/419171690

4)https://github.com/MorvanZhou/NLP-Tutorials/blob/master/BERT.py

另外也可以参考transformers库的预训练代码:

5)https://github.com/huggingface/transformers/tree/master/examples/pytorch/language-modeling

在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小桥流水78/article/detail/858733
推荐阅读
相关标签
  

闽ICP备14008679号