本页面展示了我们提供的自然语言处理(NLP)预训练模型。这些模型经过精心训练,可以在各种NLP任务中发挥出色。

模型列表

  • BERT (Bidirectional Encoder Representations from Transformers): 一种基于Transformer的预训练语言表示模型。
  • GPT-3 (Generative Pre-trained Transformer 3): 一个基于Transformer的预训练语言模型,能够生成高质量的文本。
  • RoBERTa: 在BERT基础上进一步改进的预训练模型,提高了性能。

如何使用

您可以通过以下链接查看如何使用这些模型:NLP模型使用指南

图片展示

BERT

GPT-3

RoBERTa