Transformers 库是一个开源的深度学习库,专门用于处理自然语言处理(NLP)任务。它由 Hugging Face 团队开发,并支持多种语言和平台。
特点
- 预训练模型: 提供了多种预训练模型,如 BERT、GPT-2、RoBERTa 等,可以用于各种 NLP 任务。
- 易用性: 提供了简单的 API,使得模型的使用非常方便。
- 扩展性: 支持自定义模型和任务。
快速开始
以下是一个简单的例子,展示如何使用 Transformers 库进行文本分类:
from transformers import BertTokenizer, BertForSequenceClassification
from transformers import pipeline
# 初始化分词器和模型
tokenizer = BertTokenizer.from_pretrained('bert-base-chinese')
model = BertForSequenceClassification.from_pretrained('bert-base-chinese')
# 加载文本
text = "今天天气真好!"
# 分词并编码
encoded_input = tokenizer(text, return_tensors='pt')
# 预测
predictions = model(**encoded_input)
# 获取预测结果
label = predictions.logits.argmax(-1).item()
print("预测标签:", label)
更多信息
要了解更多关于 Transformers 库的信息,请访问 官方文档。
相关资源
BERT 模型结构图