딥러닝 LeNet 알고리즘에 대해 정리한다.
다음의 내용을 적극 참조함.
[CNN 알고리즘들] LeNet-5의 구조
LeNet-5 => https://bskyvision.com/418 AlexNet => https://bskyvision.com/421 VGG-F, VGG-M, VGG-S => https://bskyvision.com/420 VGG-16, VGG-19 => https://bskyvision.com/504 GoogLeNet(inception v1) =>..
bskyvision.com
LeNet은 CNN을 처음으로 개발한 얀 르쿤 (Yann Lecun) 연구팀이 1998년에 개발한 CNN 알고리즘의 이름이다. orginal 논문 제목은 "Gradient-based learning applied to document recognition"이다.
LeNet의 다양한 버전들 (LeNet-1, .. ) 중 최종 버전인 LeNet-5의 구조는 아래 이미지와 같다.
LeNet-5의 구조
LeNet-5는 8개의 층으로 이루어져 있고, input layer(1개), convolution layer (3개, C1, C3, C5), subsampling layer (2개, S2, S4), full-connected layer (1개, F6), output layer (1개)로 구성된다.
1) C1 layer: 입력 영상 (여기서는 32 * 32 사이즈의 이미지) 을 6개의 5 * 5 필터와 컨볼루션 연산을 한다.
=> 그 결과 28 * 28 특성 맵을 얻게 된다.
2) S2 layer: 6장의 28 * 28 특성 맵에 대해 서브샘플링을 진행한다. 사용하는 서브샘플링 방법을 평균 풀링 (average pooling) 이다.
=> 그 결과 14 * 14 사이즈의 특성맵으로 축소된다.
3) C3 layer: 6장의 14 * 14 특성맵에 컨볼루션 연산을 수행한다.
= 그 결과 16장의 10 * 10 특성맵을 얻게 된다.
4) S4 layer: 16장의 10 * 10 특성 맵에 대해서 서브샘플링을 진행한다.
=> 그 결과 16장의 5 * 5 특성 맵으로 축소된다.
5) C5 layer: 16장의 5 * 5 특성맵을 120개 5 * 5 * 16 사이즈의 필터와 컨볼루션 한다.
=> 그 결과 120개의 1 * 1 특성맵이 산출된다.
6) F6 layer: 84개의 유닛을 가진 피드포워드 신경망이다. C5의 결과를 84개의 유닛에 연결한다.
7) Output layer: 10개의 Euclidean radial basis function (RBF) 유닛들로 구성되어 있다. 각각 F6 의 84개 유닛으로부터 인풋을 받는다. 최종적으로 이미지가 속한 클래스를 알려준다.
'Artificial Intelligence > DL' 카테고리의 다른 글
[개념 정리] Feedforward Neural Network (FFNN) (0) | 2021.01.05 |
---|---|
[개념 정리] AlexNet (0) | 2021.01.05 |