엔지니어가 되고 싶은 공돌이

05. 가중치 학습 본문

Artificial Intelligence/Basic Neural Network

05. 가중치 학습

Geca 2019. 12. 29. 23:44

- 결과 값과 실제 값의 차이를 오차라고 하는데 우리는 이 오차를 바탕으로 가중치를 업데이트하며 학습을 진행한다.

- 오차를 각각의 노드에 나누어 분배를 하는데 차별을 두어 분배한다. (이 방법 외에도 여러가지 방법이 존재)

- 더 큰 가중치를 가진다는 건 오차의 형성에 더 큰 영향을 줬다는 의미.

- 위 방법의 전파방향은 순전파와 방향이 반대이므로 역전파(back propagation)이라고 부른다.

'Artificial Intelligence > Basic Neural Network' 카테고리의 다른 글

07. 경사 하강법 및 오차함수  (0) 2019.12.30
06. 역전파(back propagation)  (0) 2019.12.30
04. 순전파(forward propagation)  (0) 2019.12.29
03. 뉴런이란  (0) 2019.12.29
02. 간단한 분류  (0) 2019.12.29
Comments