분류 전체보기

    [AI] Visualizing and Understanding Convolutional Networks 논문 리뷰

    https://arxiv.org/pdf/1311.2901 0. AbstractAlexNet부터 Large Convolutional Network models들이 ImageNet에서 상당히 안정적인 성능을 보임그러나, 왜 모델들이 잘 동작하는지, 어떻게 개선이 된건지에 대해 명확한 이해가 없음해당 paper를 통해 새로운 visualization techinique을 제시하여 intermediate feature layer들과 분류기의 operation에 대한 함수의 통찰력을 제공함서로 다른 layer들이 미치는 performance contribution을 측정하기 위해, 하나씩 제거해보는 연구를 수행추가적으로, ImageNet model의 다른 dataset들을 이용해서 일반화 특성을 파악함1. Int..

    [AI] Deep Residual Learning for Image Recognition

    https://arxiv.org/pdf/1512.03385 0. Abstract그 전의 ImageNet 모델에서 상 받은 모델들AlexNet(8 Layer) → VGGNet(19 Layer) → GoogleLeNet(22 Layer)신경망의 depth가 깊어질수록 accuracy가 좋아짐해당 논문의 배경Neural Networks가 깊어질수록 Train이 어려워지는 문제 발생→ 해당 paper에서 이것을 해결위해 Residual learning framework를 제안함Residual Learning Frameworkeast to opitimize, accuracy increased by deeper depthVGGNet보다 8배(152 layers) 더 깊어졌지만, Complexity는 더 낮음ResN..

    [AI] MobileNets:Efficient Convolutional Neural Networks for Mobile Vision Applications 논문 리뷰

    papers(https://arxiv.org/pdf/1704.04861) 0. Abstract해당 paper는 mobile과 embedding vision application에서 적용 가능한 efficient한 모델인 MobileNets을 제안MobileNets은 가벼운 DNN을 만들기 위해 depth-wise seperable convolution을 수행latency와 accuracy 사이의 trade-off를 조절하기 위해 두 개의 hyperparameter를 제시여러가지 use-case에서 MobileNet의 효과를 봄  1. IntroductionAlexnet 이후 accuracy는 엄청 높이기 위해 모델이 구조가 더 deep하고 복잡해짐그러나 모델이 정확도가 좋은 것과 별개로, 모델의 size..

    [모던 c++의 디자인 패턴] 3장. 팩터리

    팩터리 패턴 팩터리 메서드는 생성할 타입의 멤버 함수로, 객체러르 생성하여 리턴함 -> 생성자를 대신함 패터리는 별도의 클래스로, 목적하는 객체의 생성 방법을 알 수 있음 추상 팩터리는 구현 클래스에서 상속받는 추상 클래스이며, 여러 타입의 팩터리를 생성할 때 사용됨 팩터리는 캐싱과 같은 메모리 최적화 구현이 가능함 -> pooling이나 sigleton pattern 3.2 팩터리 메서드 어떤 객체를 생성할지 이름으로 명확하게 나타낼 수 없는 생성자 대신 객체를 생성해서 리턴하도록 하는 메서드 각각의 팩터리 메서드는 static 함수로 표현 struct Point { protected: Point(const float x, const float y) : x{x}, y{y} {} public: stati..