AI
[AI] Visualizing and Understanding Convolutional Networks 논문 리뷰
https://arxiv.org/pdf/1311.2901 0. AbstractAlexNet부터 Large Convolutional Network models들이 ImageNet에서 상당히 안정적인 성능을 보임그러나, 왜 모델들이 잘 동작하는지, 어떻게 개선이 된건지에 대해 명확한 이해가 없음해당 paper를 통해 새로운 visualization techinique을 제시하여 intermediate feature layer들과 분류기의 operation에 대한 함수의 통찰력을 제공함서로 다른 layer들이 미치는 performance contribution을 측정하기 위해, 하나씩 제거해보는 연구를 수행추가적으로, ImageNet model의 다른 dataset들을 이용해서 일반화 특성을 파악함1. Int..
[AI] Deep Residual Learning for Image Recognition
https://arxiv.org/pdf/1512.03385 0. Abstract그 전의 ImageNet 모델에서 상 받은 모델들AlexNet(8 Layer) → VGGNet(19 Layer) → GoogleLeNet(22 Layer)신경망의 depth가 깊어질수록 accuracy가 좋아짐해당 논문의 배경Neural Networks가 깊어질수록 Train이 어려워지는 문제 발생→ 해당 paper에서 이것을 해결위해 Residual learning framework를 제안함Residual Learning Frameworkeast to opitimize, accuracy increased by deeper depthVGGNet보다 8배(152 layers) 더 깊어졌지만, Complexity는 더 낮음ResN..
[AI] MobileNets:Efficient Convolutional Neural Networks for Mobile Vision Applications 논문 리뷰
papers(https://arxiv.org/pdf/1704.04861) 0. Abstract해당 paper는 mobile과 embedding vision application에서 적용 가능한 efficient한 모델인 MobileNets을 제안MobileNets은 가벼운 DNN을 만들기 위해 depth-wise seperable convolution을 수행latency와 accuracy 사이의 trade-off를 조절하기 위해 두 개의 hyperparameter를 제시여러가지 use-case에서 MobileNet의 효과를 봄 1. IntroductionAlexnet 이후 accuracy는 엄청 높이기 위해 모델이 구조가 더 deep하고 복잡해짐그러나 모델이 정확도가 좋은 것과 별개로, 모델의 size..