1. 词向量(Word Embedding)基础

词向量是将词语映射到数学向量空间的核心技术,常见的实现包括:

  • Word2Vec:通过预测上下文或根据上下文预测词(CBOW 和 Skip-Gram)
  • GloVe:基于词频统计的全局词向量模型
  • FastText:支持子词信息,适合处理罕见词和形态学变化
Word_Embedding

2. Transformer 模型突破

2017年Transformer的提出彻底改变了NLP领域,其优势包括:

  • 自注意力机制(Self-Attention)捕捉长距离依赖
  • 并行计算提升训练效率
  • 成为BERT、GPT等预训练模型的基础
Transformer_Model

3. 实践应用建议

4. 扩展阅读

Word_Vector_Example