[Paper review] MLP-Mixer An all-MLP Architecture for Vision
이번에 리뷰하고자 하는 논문에서 소개하는 MLP-Mixer는 Vision Transfomer가 등장한 이후 소개된 모델이다. Vision Transfomer은 Convolution 대신 'Self Attention' 이라는 개념을 중심적으로 적용함으로써, Convolution을 뛰어넘는 SOTA를 달성할 수 있었다. Vision Transfomer의 영향으로, Computer Vision에서는 Model Architecture부분에서 Convolution을 사용하지 않는 흐름이 나타났다. 오늘 소개할 논문 역시, 이러한 흐름 속에서 탄생한 모델로써, Convolution을 사용하지 않는 모델이다. 하지만 여기에 더불어, Attention의 개념조차 모델에 적용하지 않았다. MLP-Mixer는 오직 'ML..
Paper review
2022. 1. 8. 19:08