본문 바로가기
Computer Science/Artificial Intelligence

[인공지능] 3장 Solving non-linear problems

by na1-4an 2023. 10. 1.

1. 퍼셉트론의 한계

: not linear한 문제는 해결 어떻게할까?!

2. non-linear problems 해결방법

  (1) 직선의 수를 늘린다! (<- multilayered perceptron)

  (2) 차원의 수를 늘린다!

3. layer별 역할

  - hidden layer: 노드들의 위치를 옮겨주는 역할

  - output layer: 옮겨진 노드들을 나눠주는 직선 역할

4. 활성화함수(5)

: hard limiting, sigmoid, ReLU, linear, leaky ReLU

(그냥 ReLU함수는 0보다 작을 떄 정보 손실이 커 이를 보완하기위해 leaky ReLU 함수가 나옴.)

5. multilayered network에서 not linear activation을 사용하는 이유

: 선형 활성화함수를 사용하면 여러 개의 층을 가지고 있어도 결국 단층 신경망의 가중치로 표현되어 의미가 없음!

+ 얼굴인 식에 여러 layer를 사용.