TensorFlow NLP 提供了一系列预训练模型,可以帮助您快速构建自然语言处理应用。以下是一些常用的模型:

  • BERT: 一种基于 Transformer 的预训练语言表示模型,广泛应用于文本分类、命名实体识别等任务。
  • GPT: 一种基于 Transformer 的预训练语言模型,擅长生成文本、翻译等任务。
  • ELMo: 一种基于双向 LSTM 的预训练语言表示模型,可以捕捉词义和上下文信息。

更多模型信息,请访问 TensorFlow NLP 模型文档

模型应用示例

以下是一个使用 BERT 模型进行文本分类的示例:

import tensorflow as tf
from transformers import BertTokenizer, TFBertForSequenceClassification

tokenizer = BertTokenizer.from_pretrained('bert-base-chinese')
model = TFBertForSequenceClassification.from_pretrained('bert-base-chinese')

inputs = tokenizer("你好,TensorFlow NLP!", return_tensors="tf")
outputs = model(inputs)

print(outputs.logits)

图片展示

TensorFlow NLP 模型