Huggingface 核心模块(三): AutoModel
huggingface
本文字数:545 字 | 阅读时长 ≈ 2 min

Huggingface 核心模块(三): AutoModel

huggingface
本文字数:545 字 | 阅读时长 ≈ 2 min

transformers 库是 Hugging Face 团队开发的一个非常流行的自然语言处理库,它提供了大量预训练模型,可以用于文本分类、信息抽取、问答系统等多种任务。from_pretrained 是该库中一个非常重要的方法,用于加载预训练模型和其权重。

from_pretrained 方法

from_pretrained 是 transformers 库中一个非常重要的方法,用于加载预训练模型和其权重,这个方法主要接受以下几个参数:

示例代码

以下是如何使用 from_pretrained 方法加载一个 BERT 模型的示例:

from transformers import BertModel, BertTokenizer

model = BertModel.from_pretrained('bert-base-uncased') # 加载预训练的BERT模型
tokenizer = BertTokenizer.from_pretrained('bert-base-uncased')  # 加载预训练的BERT tokenizer

如果你有一个本地的模型,你可以通过指定路径来加载它:

model = BertModel.from_pretrained('/path/to/my/bert-model')  # 加载本地模型
tokenizer = BertTokenizer.from_pretrained('/path/to/my/bert-model')