ICLR 2021Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, Jakob Uszkoreit, Neil HoulsbyGoogle Research, Brain TeamDOI : 10.48550/arXiv.2010.11929 IntroductionNLP에 transformer가 좋은 성능을 보임에 따라, 이미지에도 self-attention 메커니즘을 사용하고자 하는 시도가 많았다.그러나 여전히 CNN-based 기술이 SOTA를 차지하고 있으며, ..