Gradient Descentby Pigbrain
- 미분의 개념을 최적화 문제에 적용한 방법
- 함수의 Local Minimum을 찾는 방법
Gradient Ascent와 Gradient Descent
- Gradient Ascent : 어떤 함수의 극대점을 찾기 위해 현재 위치에서의 기울기 방향으로 이동해 가는 방법
- Gradient Descent : 극소점을 찾기 위해 gradient 반대 방향으로 이동해 가는 방법
Gradient ?
- 다변수 함수 f(X1, X2, … Xn)에 대한 기울기

Gradient-예제

- (1, 1)에서 f값이 최대로 증가하는 방향은 (2, 2), 기울기는 ││(2, 2)││
Gradient Descent를 이용한 탐색 방법#
- 어떤 초기값 X0부터 시작하여 아래 식에 따라 기울기 반대 방향으로 X를 조금씩 이동시키면 f(X)가 극소가 되는 X를 찾을 수 있다
- λ는 알고리즘의 수렴속도를 조절하는 파라미터
- Step size 또는 Learning rate라 부른다

- 함수의 극소점이 아니라 극대점을 찾는 것이 목적이 아래 공식 이용

Gradient Descent의 문제점
- Local Minimum에 빠질 수 있다
- 해에 근접할수록 │∇f│가 0에 가까워지기 때문에 수렴속도가 느려진다
참고
- https://en.wikipedia.org/wiki/Gradient_descent
- http://darkpgmr.tistory.com/133
Published 19 July 2015