1. 퍼셉트론의 한계
: not linear한 문제는 해결 어떻게할까?!
2. non-linear problems 해결방법
(1) 직선의 수를 늘린다! (<- multilayered perceptron)
(2) 차원의 수를 늘린다!
3. layer별 역할
- hidden layer: 노드들의 위치를 옮겨주는 역할
- output layer: 옮겨진 노드들을 나눠주는 직선 역할
4. 활성화함수(5)
: hard limiting, sigmoid, ReLU, linear, leaky ReLU
(그냥 ReLU함수는 0보다 작을 떄 정보 손실이 커 이를 보완하기위해 leaky ReLU 함수가 나옴.)
5. multilayered network에서 not linear activation을 사용하는 이유
: 선형 활성화함수를 사용하면 여러 개의 층을 가지고 있어도 결국 단층 신경망의 가중치로 표현되어 의미가 없음!
+ 얼굴인 식에 여러 layer를 사용.
'Computer Science > Artificial Intelligence' 카테고리의 다른 글
[인공지능] 6장/ 7장/ 8장 (2) | 2023.10.17 |
---|---|
[인공지능] 5장 Training Multi-layer preceptron (0) | 2023.10.01 |
[인공지능] 4장 Learning: Gradient descent algorithm (2) | 2023.10.01 |
[인공지능] 2장 Perceptron (0) | 2023.09.19 |
[인공지능] 1장 Introduction (0) | 2023.09.19 |