Skip to content

inception

2017.01.23 19:02

WHRIA 조회 수:7254

https://norman3.github.io/papers/docs/google_inception.html

 

Google Inception Model.


https://arxiv.org/abs/1409.4842

Inception. v1. (a.k.a GoogLeNet)

  • 2014년 IRSVRC 에 VGG를 간신히 꺽고(?) 1등을 차지한 모델. (GoogLeNet)
  • 이후 Inception 이란 이름으로 논문을 발표함. (Inception의 여러 버전 중 하나가 GoogLeNet 이라 밝힘)
  • 2012년 Alexnet 보다 12x 적은 파라미터 수. (GoogLeNet 은 약  6.8M  6.8M 의 파라미터 수)
  • 구글측 주장
    • 알다시피 딥러닝은 망이 깊을수록(deep) 레이어가 넓을수록(wide) 성능이 좋다.
    • 역시나 알다시피 현실적으로는 overfeating, vanishing 등의 문제로 실제 학습이 어렵다.
    • 구현을 위한 현실적인 문제들.
      • 신경망은 Sparsity 해야지만 좋은 성능을 낸다. (Dropout 생각해봐라)
      • 논문에서는 데이터의 확률 분포를 아주 큰 신경망으로 표현할 수 있다면(신경망은 사후 분포로 취급 가능하므로),
      • 실제 높은 상관성을 가지는 출력들과 이 때 활성화되는 망내 노드들의 클러스터들의 관계를 분석하여,
      • 최적 효율의 토폴로지를 구성할 수 있다고 한다.
    • 근거는 Arora 논문 을 참고한 내용이라 함.
    • 하지만 이와는 반대로 실제 컴퓨터 연산에 있어서는 연산 Matrix가 Dense 해야 쓸데없는 리소스 손실이 적다.
      • 정확히는 사용되는 데이터가 uniform distribution을 가져야 리소스 손실이 적어진다.
    • 그럼 가장 좋은 방법은?
      • Arora 의 논문 에서 희망을 보았다.
      • 전체적으로는 망내 연결을 줄이면서(sparsity),
      • 세부적인 행렬 연산에서는 최대한 dense한 연산을 하도록 처리.
    • GoogLeNet 은 사실 Arora 논문 내용을 확인해보다가 구성된 모델임.
  • 잡설이 길었다.
  • Inception v1. 의 핵심은 Conv 레이어에 있음.
    • Conv 레이어를 앞서 설명한대로 sparse 하게 연결하면서 행렬 연산 자체는 dense 하게 처리하는 모델로 구성함.

figure.1

  • Inception v1. 은 그냥 이 그림이 핵심임.
  • 일단 (a) 모델을 보자. (CONV 연산이다.)
  • 보통 다른 모델은 7x7 등 하나의 Convolution 필터로 진행을 하는데 여기서는 이런 식으로 작은 Conv 레이어 여러 개를 한 층에서 구성하는 형태를 취한다.
  • 1x1 Conv?
    • 이제는 흔한 Conv라 다들 알 수도 있는 내용이지만 그래도 간단히 정리해둔다.
    • Conv 연산은 보통 3차원 데이터를 사용하는데 여기에 batch_size를 추가하여 4차원 데이터로 표기한다. (ex) : [B,W,H,C] [B,W,H,C]
    • 보통 Conv 연산을 통해 W W , H H 의 크기는 줄이고 C C 는 늘리는 형태를 취하게 되는데,
      • W W , H H 는 Max-Pooling 을 통해 줄인다.
      • C C 는 Conv Filter 에서 지정할 수 있다. 보통의 Conv는 C C 를 늘리는 방향으로 진행된다.
      • 이 때 1x1 연산은 Conv 연산에 사용하는 필터를 1x1 로 하고 C C 는 늘리는 것이 아니라 크기를 줄이는 역할을 수행하도록 한다.
      • 이렇게 하면 C C 단위로 fully-conntected 연산을 하여 차원을 줄이는 효과(압축)를 얻을 수 있다. 이게 NIN. (Network in Network)
  • (b) 는 개선 모델
    • 사실 5x5 연산도 부담이다. (참고로 Inception v2. 에서는 이걸 3x3 연산 2회로 처리. 이건 뒤에 나온다)
    • 그래서 이 앞에 1x1 Conv 를 붙여 C C 를 좀 줄여놓고 연산을 처리한다. (그래도 성능이 괜찮다고 함)
      • 이로 인해 계산량이 많이 줄어든다.
    • Max-Pooling 의 경우 1x1 이 뒤에 있는 이유
      • 출력 C C 의 크기를 맞추기 위해 사용.
      • Max-Pooling 은 C C 크기 조절이 불가능하다.
  • 결론
    • Conv 연산을 좀 더 작은 형태의 Conv 연산 조합으로 쪼갤 수 있다.
    • 이렇게 하면 정확도는 올리고, 컴퓨팅 작업량은 줄일 수 있다.

figure.2

  • 위의 표는 Inception 전체 Layer에서 사용되는 Conv 의 크기를 순서대로 나열한 표이다.
    • 한번 정도는 진지하게 표를 살펴볼 필요가 있다.
    • 위의 값은 GoogLeNet 을 구성한 값임.
    • 입력 이미지 크기는 224x224x3 임.
  • 레이어 초반에는 인셉션 모듈이 들어가지 않는다.
    • 얘네들은 이걸 Stem 영역이라고 부르던데.. 어쨌거나 일반적인 Conv-Net 에서 보이는 가장 단순한 Conv-Pool 스타일을 따른다.
    • 실험을 해보니 레이어 초반에는 인셉션이 효과가 별로 없어서 이렇게 한다고 한다.
  • '’reduce’’ 라고 되어 있는 값은 앞단 1x1 Conv 의 C C (channel) 값을 의미한다.
  • 그림으로 도식화하면 다음과 같다.

figure.3

참고사항

figure.4

  • 그림에서 보면 노란색 의 영역이 눈에 띈다.
  • 이는 softmax 영역으로 망 전체에 총 3 개가 있다.
  • 실제 마지막 Layer 가 진짜배기 softmax 레이어이고 나머지 2개는 보조 softmax 레이어이다.
  • 이는 망이 깊어질 때 발생하는 vanishing 문제를 해결하고자 중간 층에서도 Backprop을 수행하여 weight 갱신을 시도하는 것이다.
    • 이렇게하면 당연히 아래 쪽 weight도 좀 더 쉽게 weight가 갱신될 것이다.
    • 물론 가장 중요한 softmax 레이어는 마지막 레이어에 연결된 것이므로 보조 레이어는 학습시에 비율을 반영하여 Loss 함수에 반영한다.
      • 전체 Loss 값에 0.3 비율로 포함된다고 한다.
    • Incecption v2. v3에서는 보조 softmax 가 별로 효용 가치가 없다고 해서 맨 앞단 softmax 는 제거하게 된다.
    • 학습(training)시에만 사용하고 추론(inference)시에는 이 노드를 그냥 삭제해버림.
      • 즉, 테스트 단계에서는 마지막 softmax 레이어만 실제로 사용함.
      • 그래서 pre-trained model 그래프에서는 이 노드가 보이지 않는다.
  • 성능 결과는 다음과 같다.

figure.5

  • 다른 Conv-Net 들과의 차이? 예를 들면 VGG 등 (주관적 견해임)
    • 그냥 단순히 생각해보면 다른 모델은 conv 영역의 C C (channel) 정보의 경우 localization 이 확실하다고 생각되는데..
      • 이건 단순하게 생각하면 동일한 filter 크기를 가지고 W W , H H 의 크기를 줄여나가기 때문에 각 C C 가 담고 있는 정보들은,
      • 실제 이미지 데이터에서 차지하는 Localization 영향도가 C C 의 각 차원마다 동일할 것이다.
    • 반면 Inception 은 약간 혼성화(mixing, hybriding)된 느낌임.
    • 그냥 여러 크기를 가지는 필터를 통해 모아진 정보를 하나의 C C 로 모은 느낌.
      • 물론 각 C C 별로 모든 차원의 정보에 대해서는 중심점은 동일하므로 실제 정보는 (C C 축을 기준으로 볼때) 정규분포와 같은 형태로 정보를 모아놓은 느낌.
    • 말이 안된다 하겠지만 설명이 잘 안되는 것도 사실.

Inception. v2. / v3.

  • 관련 논문 : Rethinking the Inception Architecture for Computer Vision
  • 구글러의 비애
    • 2014년에 1등한건 우린데 왜 VGG만 쓰나? (그럼 좀 쉽게 만들던가!)
    • VGG는 연산량이 많는데… 왜?? (그럼 좀 쉽게 만들던가!)
    • VGG는 Alexnet보다 파라미터 수가 3배나 많단 말이야! (그럼 좀 쉽게 만들던가!)
  • 구글러의 자기 반성
    • 내가 생각해봐도 Inception을 응용하기가 쉽지 않다.
    • “너님은 능력 부족으로 변형같은건 꿈도 못 꿈”을 말하는듯한 느낌이네
  • 반성하고 다른 모델을 고려해본다.
    • VGG가 사용한 오로지 3x3 Conv 필터만 사용 이 예상외로 효과가 좋은가보다.
    • Conv 연산이 아무리 Sparsity 를 높인다고 하나 여전히 비싼 연산이긴 하다.

  • Neural-Net. 디자인 원칙
    • (1) Avoid representational bottlenecks, especially early in the network
    • (2) Higher dimensional representations are easier to process locally within a network.
    • (3) Spatial aggregation can be done over lower dimensinal embeddings without much or any loss in representational power
    • (4) Balance the width and depth of the network.

더 작은 단위의 conv 를 사용하자

  • 예제로 보는 Conv Factorization.

figure.6

  • 5x5 짜리 conv 도 크다. 이걸 3x3 conv 2개로 바꾸어보면,
    • 5x5 : 3x3 = 25 : 9 (25/9 = 2.78 times)
      • 5x5 conv 연산 한번은 당연히 3x3 conv 연산보다 약 2.78 배 비용이 더 들어간다.
    • 만약 크기가 같은 2개의 layer 를 하나의 5x5 로 변환하는 것과 3x3 짜리 2개로 변환하는 것 사이의 비용을 계산해보자.
      • 5x5xN : (3x3xN) + (3x3xN) = 25 : 9+9 = 25 : 18 (약 28% 의 reduction 효과)
  • 이제 원래 사용하던 inception 모델에 이를 적용해보자.

figure.7

  • 이런 모델로 변경했을 때의 2개의 의문?
    • 새롭게 바뀐 결과가 Loss 계산에 영향을 주는가?
    • Conv 를 두개로 나누게 되면 첫번째 Conv에서 사용하는 Activation 함수는 뭘 사용해야 하는가?
  • 실험을 여러번 해봤는데 결과는 꽤 괜찮다.
    • 성능에는 문제가 없다.
    • Activation은 Relu, Linear 모두 테스트. Relu가 약간 더 좋다.
  • 이게 Inception.v2 인가?
    • 꼭 그런건 아니고 이 뒤에 소개될 이런 잡다한 기술 몇 개를 묶어 Inception.v2 로 명명한다.

비대칭(Asymmetric) Conv 를 사용한 Factorization

figure.8

  • 마찬가지로 연산량을 줄이면서 Conv 를 할 수 있는 꼼수(?) 기법 중 하나이다.
  • 일반적으로 N x N 의 형태로 Conv 를 수행하게 되는데 이를 1 x N 과 N x 1 로 Factorization 하는 기법이다.
    • 계산을 해보면 연산량이 33% 줄어든다.

figure.9


보조 분류기 (Auxiliary Classifiers)

  • 앞서 Inception.v1 에서는 맨 마지막 softmax 말고도 추가로 2개의 보조 softmax 를 사용했다고 이야기했다.
    • Backprop시 weight 갱신을 더 잘하라는 의미에서.
  • 이 중에 맨 하단 분류기는 삭제한다. 실험을 통해 성능에 영향을 주지 못하는 것으로 확인되었다.

효율적인 그리드(Grid) 크기 줄이기

  • CNN 은 Feature Map의 Grid 크기를 줄여가는 과정을 Max-Pooling 을 이용해서 진행한다.
  • 그리고 언제나 Pooling 은 Conv와 함께한다.
  • 그럼 어떤걸 먼저해야 효율적인 Grid 줄이기를 할 수 있을까?
    • Pooling 을 먼저할까? Conv 를 먼저할까? 최종적으로 얻어지는 크기는 동일함.

figure.10

  • 일단 왼쪽은 Pooling을 먼저 하는것. 오른쪽은 Conv 를 먼저하는것.
  • 결론부터 말하면 둘 다 별로.
  • Pooling을 먼저하면?
    • 이 때는 Representational Bottleneck 이 발생한다.
    • 이 말의 정확한 의미를 이해하기는 어렵지만 (실제로는 심리학 용어인듯) 대충 Pooling으로 인한 정보 손실로 생각하면 될 듯 하다.
  • 예제로 드는 연산은 (d,d,k) (d,d,k)(d/2,d/2,2k) (d/2,d/2,2k) 로 변환하는 Conv 로 확인. (따라서 여기서는 d=35 d=35 , k=320 k=320 )
    • 어쨌거나 이렇게 하면 실제 연산 수는,
      • pooling + stride.1 conv with 2k filter => 2(d/2) 2 k 2  2(d/2)2k2 연산 수
      • strid.1 conv with 2k fileter + pooling => 2d 2 k 2  2d2k2 연산 수
    • 즉, 왼쪽은 연산량이 좀 더 작지만 Representational Bottleneck 이 발생.
    • 오른쪽은 정보 손실이 더 적지만 연산량이 2배.
  • 이제 결론을 이야기하자.
    • 결국 둘 중 하나를 선택하지 못한다면 섞어버리는게 딱 좋은데, 연산량을 낮추면서 Representation Bottleneck 을 없애는 구조를 고민한다.

figure.11

  • 대단한 것은 아니고 두개를 병렬로 수행한 뒤 합치는 것. (먼저 오른쪽 그림을 보자)
  • 이러면 연산량은 좀 줄이면서 Conv 레이어를 통해 Representational Bottleneck을 줄인다.
  • 이걸 대충 변경한 모델이 왼쪽이라고 생각해도 된다.

Inception.v2

  • 이제 Inception.v2 가 나온다.
  • 지금까지 설명했던 것들을 대충 모으면 Inception.v2 모델이 된다.

figure.12

  • 이 그림은 익숙할 것이다. 이게 Inception.v2 다.
  • 어떤 사람은 이 그림을 Inception.v3 로 알고 있는 사람이 있는데 이유가 있다. 뒤에 나온다.

figure.13

  • 잘 보면 레이어 앞단은 기존 conv 레이어와 다를 바 없다. (stem 레이어)
  • 중간부터 앞서 설명한 기본 inception 레이어 들이 등장한다.
  • 중간 아래에는 figure 5, 6, 7 라고 표기되어 이것은 앞서 설명한 여러 기법들을 차례차레 적용한 것이다.
  • 친절하게 다시 그림으로 정리해본다.

figure.14

Inception.v3

  • Inception.v3는 Inception.v2 를 만들고 나서 이를 이용해 이것 저것 수정해보다가 결과가 더 좋은 것들을 묶어 판올림한 것이다.
  • 따라서 모델 구조는 바뀌지 않는다. 그래서 Inception.v2 그 구조도를 그대로 Inception.v3 라 생각해도 된다.
    • 사실 Inception.v3 모델을 Inception.v2++ 정도로 봐도 무방하겠다.
  • 간단하게 정확도로 이를 확인해보자.

figure.15

  • 왼쪽만 보면 되는데 Inception.v2 기본 버전의 top-1 error 값이 23.4 % 인 걸 알 수있다.
  • 여기서 이제 각종 기능을 붙여본다.
    • RMSProp : Optimizer를 바꾼거다.
    • Label Smoothing
      • 논문에 자세히 나와있긴 한데 간단히 설명하자면 Target 값을 one-hot encoding을 사용하는 것이 아니라,
      • 값이 0 인 레이블에 대해서도 아주 작은 값 e e 를 배분하고 정답은 대충 1(n1)e 1−(n−1)∗e 로 값을 반영하는 것이다.
    • Factorized 7-7
      • 이게 좀 아리까리한게 맨 앞단 conv 7x7 레이어를 (3x3)-(3x3) 2 레이어로 Factorization 한 것이라고 한다. (앞에서 설명한 것이다.)
      • 그런데 v2 레이어 표를 보면 이미 적용되어 있는 것 같기도 해서 혼동이…
      • 어쨋거나 이를 적용했다고 한다. 일단 넘어가자.
    • BN-auxiliary
      • 마지막 Fully Conntected 레이어에 Batch Normalization(BN)을 적용한다.
  • 이를 모두 적용한게 Inception.v3 되겠다.
  • 최종 결과값만 보자.

figure.16

  • 뭐 성능은 좋다 한다.

참고사항

  • 우리가 pre-trained 모델로 사용하는 Inception은 Inception.v3 버전이다.
  • 하지만 논문에서 설명하는 Inception.v3 버전과는 완벽하게 일치하지 않는다.
    • 내부적으로도 버저닝(versioning)이 잘 안되나보다. 날짜로 확인을 해야 한다.

Inception.v4 & Inception-resnet

  • 관련 논문 : Inception-v4, Inception-RestNet and the Impact of Residual Connections on Learning
  • 2015년 혜성과 같이 등장한 ResNet 을 자연스럽게 자신들의 Inception에 붙여보려는 시도.
    • 그런데 이건 존심의 문제인지 Inception.v4 에 반영된 것이 아니라 Inception-resnet 이라는 별도의 모델로 작성.
    • Inception.v4 는 기존의 Inception.v3 모델에 몇 가지 기능을 추가시켜 업그레이드한 모델.
    • 따라서 이 논문은 Inception.v4 와 Inception-resnet 둘을 다루고 있다.
      • 특히나 resnet 을 도입한 모델을 Inception-resnet 이라 명명한다.
      • 마찬가지로 이 버전도 Inception-resnet.v1, Inception-resnet.v2 와 같이 별도의 버저닝을 가져간다.
    • 실제로는 ad-hoc한 모델로 이 모델의 한계점을 이야기하고 있음.
  • 관련 작업들.
    • TensorFlow를 언급
      • 예전 Inception 버전은 구현 모델의 제약이 많았음.
      • TensorFlow로 전환 후 유연한 모델을 얻게 됨.
    • 뒤에 나올 그림들을 살펴보면 Inception-v4 가 어떤 모델인지 알수 있게 될 것이다.
  • Residual connections
    • 사실 깊은 망을 학습할 경우 (이미지 인식 분야에서) 이게 꼭 필요한 것인지는 우리(구글러)끼리 논쟁 중.
    • 근데 확실히 학습 속도가 빨라진다. 그건 장점.
    • Residual connection 이 뭔지 모르는 사람을 위한 그림. 아래를 참고하자.

figure.17

  • 일단 첫번째 그림이 가장 간단한 형태의 residual-connection을 의미.
  • 두번째는 1x1 conv 를 추가하여 연산량을 줄인 residual-connection을 나타낸다.
  • 어쨌거나 Residual 의 개념은 이전 몇 단계 전 레이어의 결과를 현재 레이어의 결과와 합쳐 내보내는 것을 의미한다.

Inception-v4. , inception-resnet-v2

  • 일단 Inception.v4 의 전체 망을 조망해본다. 감상해보자.

figure.18

  • inception-v3 와 마찬가지로 거의 유사한 형태의 net 을 구성하고 있지만 세부적인 inception 레이어의 모양이 달라진다.
  • 이건 지금부터 확인해 볼 것이다.

Versioning

  • Inception에 resnet 이 추가되면서 버저닝이 좀 정신사나워졌다.
  • 일단 앞서 이야기한대로 Inception.v3를 확장한 Inception.v4 는 별도로 존재.
  • 여기에 Inception.v3와 Inception.v4에 각각 residual 을 적용한 버전이 Inception-resnet.v1, Inception-resnet.v2 이다.
    • 즉, Inception.v3 에 대응되는 resnet은 Inception-resnet.v1
    • 즉, Inception.v4 에 대응되는 resnet은 Inception-resnet.v2

Stem Layer

  • Inception.v3 에서 앞단의 Conv 레이어를 stem 영역이라고 부른다고 이미 이야기했다.
  • Inception.v4 에서는 이 부분을 약간 손봤다.
    • 그리고 미리 이야기하지만 Inception-resnet.v2 버전에서도 Stem 영역은 동일하게 이 구조를 사용한다.
  • 먼저 stem 영역의 그림을 보자.

figure.19

  • 이런 구조가 나오게 된 배경 지식은 이미 Inception.v3 에서 다루었고, 다만 Inception.v4 에서는 앞단의 영역에도 이런 모델이 추가로 차용되어 있다고 생각하면 된다.
  • 아마도 이것저것 테스트해보다가 결과가 더 좋게 나오기 때문에 이를 채용한 것 같다.

4 x Inception-A

figure.20

7 x inception-B

figure.21

3 x inception-C

figure.22

  • 위에서 설명된 Inception 모듈은 모두 입출력 크기 변화가 없다. (inception module 의 input, output 크기를 의미한다.)
  • 실제 크기 변화가 발생하는 부분은 Reduction 이라는 이름을 사용한다.

Reduction-A

figure.23

Reduction-B

figure.24

  • 사실 Inception.v4 모델에서는 새로운 컨셉이 등장하거나 한 것은 없다.
  • 기존의 Inception.v3 모델을 이것저것 실험해보면서 좋은 결과를 얻는 case를 조합한 느낌이다.

Resnet

  • 일단 논문에서는 Inception-resnet.v1과 Inception-resnet.v2 를 구분하여 그림으로 설명을 하고 있다.
  • 특별히 설명할 것은 없고 몇 가지 그림만 보고 넘어가도록 하자.

figure.25

figure.26

  • 특별한 내용은 없고 그냥 residual 만 추가한 것이다.

결과

  • resnet 도입으로 얻을 수 있는 장점은 학습 수렴 속도

figure.27

  • 위의 그림은 Inception.v3 와 Inception-resnet.v1 의 에러 값 수렴 속도를 나타내고 있다.
  • resnet 이 훨씬 빠르게 수렴된다는 것을 알 수 있다.

  • 마지막으로 성능 지표는 다음과 같다.

figure.28

번호 제목 글쓴이 날짜 조회 수
1519 JAMA WHRIA 2017.02.11 722
1518 windows faster rcnn WHRIA 2017.02.10 4718
» inception WHRIA 2017.01.23 7254
1516 fast rcnn WHRIA 2017.01.08 146
1515 fast rcnn cudnn 5.0 WHRIA 2017.01.08 180
1514 jquery java WHRIA 2016.12.13 1850
1513 % 빼고 center crop WHRIA 2016.10.22 361
1512 이미지를 정사각형으로 만드는 batch WHRIA 2016.10.22 1222
1511 이미지 size 줄이는 batch WHRIA 2016.10.19 169
1510 caffe WHRIA 2016.10.19 145
1509 sqlite to mysql WHRIA 2016.10.18 182
1508 KMA 연수교육 주소 WHRIA 2016.10.05 184
1507 . WHRIA 2016.10.01 120
1506 만기까지 끌어 올림. WHRIA 2016.09.30 116
1505 youtube WHRIA 2016.09.30 81

Powered by Xpress Engine / Designed by Sketchbook

sketchbook5, 스케치북5

sketchbook5, 스케치북5

나눔글꼴 설치 안내


이 PC에는 나눔글꼴이 설치되어 있지 않습니다.

이 사이트를 나눔글꼴로 보기 위해서는
나눔글꼴을 설치해야 합니다.

설치 취소