Transformers 库是一个开源的深度学习库,专门用于处理自然语言处理(NLP)任务。它由 Hugging Face 团队开发,并支持多种语言和平台。

特点

  • 预训练模型: 提供了多种预训练模型,如 BERT、GPT-2、RoBERTa 等,可以用于各种 NLP 任务。
  • 易用性: 提供了简单的 API,使得模型的使用非常方便。
  • 扩展性: 支持自定义模型和任务。

快速开始

以下是一个简单的例子,展示如何使用 Transformers 库进行文本分类:

from transformers import BertTokenizer, BertForSequenceClassification
from transformers import pipeline

# 初始化分词器和模型
tokenizer = BertTokenizer.from_pretrained('bert-base-chinese')
model = BertForSequenceClassification.from_pretrained('bert-base-chinese')

# 加载文本
text = "今天天气真好!"

# 分词并编码
encoded_input = tokenizer(text, return_tensors='pt')

# 预测
predictions = model(**encoded_input)

# 获取预测结果
label = predictions.logits.argmax(-1).item()
print("预测标签:", label)

更多信息

要了解更多关于 Transformers 库的信息,请访问 官方文档

相关资源

BERT 模型结构图