赞
踩
模型卡片入口(可以获取config.json):roberta-base,roberta-large
如下图所示,可以在huggingface模型卡片页面获取对应的预训练模型和配置文件。
其他位置: Roberta github仓库
from transformers import RobertaTokenizer, RobertaModel, RobertaConfig
tokenizer = RobertaTokenizer.from_pretrained("pretrained_model/roberta_base/")
config = RobertaConfig.from_pretrained("pretrained_model/roberta_base/")
model = RobertaModel.from_pretrained("pretrained_model/roberta_base/")
RobertaTokenizer.from_pretrained("roberta_base/")
的方式使用,这样虽然保证百分之百可以使用,但是国内的下载速度着实着急,其次,这种方式下载文件的存储名称是序列码,如果下载多个预训练模型想去文件中定位相应的模型是很困难的(可以通过下载时间来判断)。所以一般都是下好预训练模型,然后直接把文件路径放到from_pretrained
里。pytorch_model.bin
,配置文件都得叫config.json
,词汇文件都得叫vocab.txt或json
。这个是因为源码中的判断要求,所以别问,问就是改名。Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。