当前位置:   article > 正文

HuggingFace(一) | 一起玩预训练语言模型吧_automodelforsequenceclassification.from_pretrained

automodelforsequenceclassification.from_pretrained

Hugging Face的目标

  1. 尽可能的让每个人简单,快速地使用最好的预训练语言模型;
  2. 希望每个人都能来对预训练语言模型进行研究。

不管你使用Pytorch还是TensorFlow,都能在Hugging Face提供的资源中自如切换。

Hugging Face的主页

Hugging Face – On a mission to solve NLP, one commit at a time.

Hugging Face所有模型的地址

https://huggingface.co/models

你可以在这里下载所需要的模型,也可以上传你微调之后用于特定task的模型。

Hugging Face使用文档的地址

https://huggingface.co/transformers/master/index.html

 

一个快速使用的例子

如果你想快速的判断一下输入序列的情感极性,那么就:

  1. from transformers import pipeline
  2. classifier = pipeline('sentiment-analysis') # 在pipline()中可以指定很多task
  3. print(classifier('what are you doing?'))

如果没有指定使用的模型,那么会默认下载模型:“distilbert-base-uncased-finetuned-sst-2-english”,下载的位置在系统用户文件夹的“.cache\torch\transformers”目录。

————————————————————————————

如果想选择自己想要的模型,那么就:

  1. from transformers import pipeline
  2. from transformers import AutoTokenizer, AutoModelForSequenceClassification
  3. # AutoTokenizer用于tokenize,可以通俗理解为分词
  4. # AutoModelForSequenceClassification将用于下载模型
  5. model_name = "nlptown/bert-base-multilingual-uncased-sentiment" # 选择想要的模型
  6. model = AutoModelForSequenceClassification.from_pretrained(model_name)
  7. tokenizer = AutoTokenizer.from_pretrained(model_name)
  8. classifier = pipeline('sentiment-analysis', model=model, tokenizer=tokenizer)
  9. print(classifier('what are you doing?'))

请确保这个模型存在于:https://huggingface.co/models

————————————————————————————

如果你想指定模型的下载位置,那么就在代码最前面输入:

import os
os.environ['TRANSFORMERS_CACHE'] = ‘地址’

即:

  1. import os
  2. os.environ['TRANSFORMERS_CACHE'] = ‘地址’
  3. from transformers import AutoTokenizer, AutoModelForSequenceClassification
  4. # AutoTokenizer用于tokenize,可以通俗理解为分词
  5. # AutoModelForSequenceClassification将用于下载模型
  6. model_name = "nlptown/bert-base-multilingual-uncased-sentiment" # 选择想要的模型
  7. model = AutoModelForSequenceClassification.from_pretrained(model_name)
  8. tokenizer = AutoTokenizer.from_pretrained(model_name)
  9. classifier = pipeline('sentiment-analysis', model=model, tokenizer=tokenizer)
  10. print(classifier('what are you doing?'))

————————————————————————————

当然,也可以先把模型下载下来,再从本地读取

  1. from transformers import pipeline
  2. from transformers import AutoTokenizer, AutoModelForSequenceClassification
  3. model_name = "./nlptown/bert-base-multilingual-uncased-sentiment" # 这里是文件路径(文件夹)
  4. model = AutoModelForSequenceClassification.from_pretrained(model_name)
  5. tokenizer = AutoTokenizer.from_pretrained(model_name)
  6. classifier = pipeline('sentiment-analysis', model=model, tokenizer=tokenizer)
  7. print(classifier('what are you doing?'))

 

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/2023面试高手/article/detail/347518
推荐阅读
相关标签
  

闽ICP备14008679号