Hugging Face 是一个专注于自然语言处理(NLP)的开源社区,提供丰富的预训练模型和工具。以下是快速上手的步骤:

  1. 安装库
    首先安装 Hugging Face 的 Python 库:
    💡 !pip install transformers
    📦 该库支持多种模型架构,如 BERT、GPT-2 等。

  2. 加载模型
    使用 AutoModelAutoTokenizer 加载预训练模型:

    from transformers import AutoModel, AutoTokenizer
    model = AutoModel.from_pretrained("bert-base-uncased")
    tokenizer = AutoTokenizer.from_pretrained("bert-base-uncased")
    
  3. 文本推理
    对文本进行情感分析或分类:
    📝 示例代码:

    inputs = tokenizer("I love programming!", return_tensors="pt")
    outputs = model(**inputs)
    
  4. 扩展学习
    想深入了解?可参考 Hugging Face 官方文档 获取英文教程。

Hugging_Face
📌 **提示**:图片关键词可替换为具体模型名称,例如 `BERT` 或 `GPT-2`。