注意力机制是深度学习中一个重要的概念,尤其在自然语言处理领域有着广泛的应用。以下是一些关于注意力机制的论文,供大家参考和学习。
论文列表
-
- 作者:Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser, Illia Polosukhin
- 简介:这篇论文提出了Transformer模型,该模型使用自注意力机制,在多个NLP任务中取得了优异的成绩。
A Neural Attention Model for Abstractive Summarization
- 作者:Minh-Thang Luong, Hieu Pham, Christopher D. Manning
- 简介:这篇论文提出了一种基于神经网络的注意力模型,用于生成摘要。
Sequence-to-Sequence Learning with Neural Networks
- 作者:Ilya Sutskever, Oriol Vinyals, Quoc V. Le
- 简介:这篇论文介绍了序列到序列学习,并使用注意力机制在机器翻译任务中取得了很好的效果。
Neural Machine Translation by Jointly Learning to Align and Translate
- 作者:Dzmitry Bahdanau, Kyunghyun Cho, Yoshua Bengio
- 简介:这篇论文提出了双向注意力机制,在机器翻译任务中取得了显著的性能提升。
Learning Representations by Backpropagating Errors
- 作者:Geoffrey Hinton, Nitish Srivastava, Alex Krizhevsky, Ilya Sutskever, Ruslan Salakhutdinov
- 简介:这篇论文介绍了反向传播算法,是深度学习的基础。
扩展阅读
更多关于注意力机制的内容,可以参考本站的注意力机制教程。