엔지니어가 되고 싶은 공돌이
05. 가중치 학습 본문
- 결과 값과 실제 값의 차이를 오차라고 하는데 우리는 이 오차를 바탕으로 가중치를 업데이트하며 학습을 진행한다.
- 오차를 각각의 노드에 나누어 분배를 하는데 차별을 두어 분배한다. (이 방법 외에도 여러가지 방법이 존재)
- 더 큰 가중치를 가진다는 건 오차의 형성에 더 큰 영향을 줬다는 의미.
- 위 방법의 전파방향은 순전파와 방향이 반대이므로 역전파(back propagation)이라고 부른다.
'Artificial Intelligence > Basic Neural Network' 카테고리의 다른 글
07. 경사 하강법 및 오차함수 (0) | 2019.12.30 |
---|---|
06. 역전파(back propagation) (0) | 2019.12.30 |
04. 순전파(forward propagation) (0) | 2019.12.29 |
03. 뉴런이란 (0) | 2019.12.29 |
02. 간단한 분류 (0) | 2019.12.29 |
Comments