TensorFlow NLP 提供了一系列预训练模型,可以帮助您快速构建自然语言处理应用。以下是一些常用的模型:
- BERT: 一种基于 Transformer 的预训练语言表示模型,广泛应用于文本分类、命名实体识别等任务。
- GPT: 一种基于 Transformer 的预训练语言模型,擅长生成文本、翻译等任务。
- ELMo: 一种基于双向 LSTM 的预训练语言表示模型,可以捕捉词义和上下文信息。
更多模型信息,请访问 TensorFlow NLP 模型文档。
模型应用示例
以下是一个使用 BERT 模型进行文本分类的示例:
import tensorflow as tf
from transformers import BertTokenizer, TFBertForSequenceClassification
tokenizer = BertTokenizer.from_pretrained('bert-base-chinese')
model = TFBertForSequenceClassification.from_pretrained('bert-base-chinese')
inputs = tokenizer("你好,TensorFlow NLP!", return_tensors="tf")
outputs = model(inputs)
print(outputs.logits)