当前位置:   article > 正文

Huggingface Transformers简约教程(二)_huggingface pipeline 返回多个

huggingface pipeline 返回多个

写在前面:

致敬所有前辈:

① 知乎上的transformers 教程
② 博客园上的Colab 使用教程
③ huggingface 官网

6 设计思想

The library was designed with two strong goals in mind:

1 尽可能简单快捷地使用:

①我们严格限制了要学习的面向用户的抽象的数量,事实上,几乎没有抽象,使用每个模型只需要三个标准类:configuration, models and tokenizer

②所有这些类都可以通过使用一个公共的**from_pretrained()**实例化方法从预训练的实例以一种简单而统一的方式初始化,该方法将负责下载(如果需要),从Hugging Face Hub上提供的预训练检查点或您自己保存的检查点缓存和加载相关类实例和相关数据(配置的超参数、标记化器的词汇表和模型的权重)。

③除了这三个基类之外,该库还提供了两个APIpipeline(),用于在给定任务和Trainer/keras上快速使用模型(及其关联的标记器和配置)。适合快速训练或微调给定模型。

④因此,该库不是神经网络构建块的模块化工具箱。如果想扩展/构建库,只需使用常规的Python/PyTorch/TensorFlow/Keras模块,并从库的基类继承来重用模型加载/保存等功能。

2 为最先进的模型提供尽可能接近原始模型的性能:

①我们为每种架构提供了至少一个示例,该示例再现了上述架构的官方作者提供的结果。
②该代码通常尽可能接近原始代码库,这意味着某些PyTorch代码可能不像转换为TensorFlow代码时的pytorch代码那样,反之亦然。

3 总结一下

The library is built around three types of classes for each model:
1 Model classes
2 Configuration classes
3 Tokenizer classes

All these classes can be instantiated from pretrained instances and saved locally using two methods:

1 from_pretrained()
允许您从库本身提供的预训练版本(支持的模型可以在模型中心找到)或用户本地(或服务器上)存储的预训练版本实例化模型/配置/标记器
2 save_pretrained()
允许您在本地保存model/config/tokenizer,以便可以使用from_pretrained()重新加载它。

官网上是这样介绍的
在这里插入图片描述

7 快速使用

刚才已经介绍了Transforemers提供了三个基类和两个API(pipeline和trainer),下面就介绍最简单的transformers的实现方法。

举例一:利用pipeline实现情感分析

首先让我们看看pipline最常见的一个应用

pip install torch
  • 1

这样一看是不是很熟悉了呢?我们经常使用pipeline来安装各种包。话不多说,下面就来介绍利用pipeline()实现情感分类这个例子。

① 利用pipeline()来实现一个特定的任务(单个句子)

from transformers import pipeline
classifier = pipeline("sentiment-analysis")
  • 1
  • 2

这样就加载了一个默认的用于"sentiment-analysis"pretrained modeltokenizer

classifier("We are very happy to show you the 
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/盐析白兔/article/detail/254658
推荐阅读
相关标签