1、Attention is All You Need (2017) Vaswani等人提出了一种新的神经网络架构——Transformer,它彻底改变了自然语言处理(NLP)领域。
2、BERT: Pretraining of Deep Bidirectional Transformers for Language Understanding (2018) Devlin等人提出了BERT,一种预训练语言模型,在许多NLP任务中取得了最先进的成果。
3、Deep Residual Learning for Image Recognition (2016) He等人提出了一种新的深度学习架构——残差网络(ResNet),在图像识别任务中取得了最先进的成果。
4、Generative Adversarial Networks (2014) Goodfellow等人提出了一种新的生成模型——生成对抗网络(GAN),可以生成逼真的合成数据。
5、Deep Learning for Computer Vision: A Survey (2020) Liu等人发表了一篇关于深度学习在计算机视觉领域应用的综述文章,涵盖了图像分类、目标检测、分割等任务。
6、Transformers for Image Recognition at Scale (2021) Dosovitskiy等人提出了Vision Transformer(ViT),一种将Transformer架构应用于图像识别任务的模型。
7、DALLE: TexttoImage Generation with Attention (2021) Ramesh等人提出了DALLE,一种可以根据文本描述生成图像的模型。
8、CLIP: Learning Transferable Visual Models From Natural Language Supervision (2021) Radford等人提出了CLIP,一种可以学习将图像和文本进行匹配的模型。
9、Swin Transformer: Hierarchical Vision Transformers using Shifted Windows (2021) Liu等人提出了Swin Transformer,一种新的视觉Transformer架构,在多个视觉任务中取得了最先进的成果。
10、PointBERT: Pretraining for Point Cloud Understanding (2022) Yu等人提出了PointBERT,一种用于点云理解的预训练模型。