GoogleNet[szegedy et al., 2014]
네트워크가 깊고 넓을수록 학습이 성능이 좋아질 것이라 생각.
네트워크가 너무 깊으면
1.모델 구조에 대한 연구
2.backpropagation을 효율적으로 전달하기 위한 연구
전체적으로 보면 inception module의 덩어리로 이루어진 구조
맨 앞부분 - inception module로 들어가기 위해 정제되는 부분
맨 뒷부분 - inception module로 정제된 output을 최종 결과로 만들어 주는 부분
inception module
다양한 크기의 filter를 이용하지만 연산량이 증가하므로 비효율적인 결과를 가져온다.
1*1filter가 추가된 수정된 version의 inception module
previous layer에서 input을 받아 4갈래로 나뉘어 연산이 진행.
4개의 feature map들을 concatenate함 >> (작은크기의 feature & 중간크기의 feature & 큰 크기의 feature & 이전 layer의 중요한 특징만 뽑아낸 feature)
1*1 convolution 의 효과