🤗 Transformers 是一个专为以下用户群体构建的库:
Transformers 设计时有两个主要目标:
尽可能简单快速地使用:
from_pretrained()
方法从预训练实例中简单统一地初始化,该方法会从提供在 Hugging Face Hub 上的预训练检查点(如果需要的话)下载、缓存和加载相关类实例及相关数据(配置的超参数、分词器的词汇表和模型的权重)。Trainer
用于快速训练或微调 PyTorch 模型(所有 TensorFlow 模型与 Keras.fit
兼容)。提供与原始模型性能尽可能接近的最新模型:
其他几个目标:
尽可能一致地公开模型的内部:
结合主观选择的有前途的工具进行模型微调和调查:
轻松在 PyTorch、TensorFlow 2.0 和 Flax 之间切换,允许使用一个框架进行训练并使用另一个进行推断。
该库围绕每个模型的三类类构建:
所有这些类都可以从预训练实例中实例化、本地保存,并通过以下三种方法与 Hub 共享:
from_pretrained()
允许您从库自身提供的预训练版本(支持的模型可在 Model Hub 上找到)或用户本地(或服务器上)存储的版本实例化模型、配置和预处理类。save_pretrained()
允许您本地保存模型、配置和预处理类,以便可以使用 from_pretrained()
重新加载。push_to_hub()
允许您将模型、配置和预处理类共享到 Hub,以便所有人都可以轻松访问。