Logistic Regressionby Pigbrain
회귀 ?
- 두 변수 x와 y와의 관계에 적합한 선
- 회귀가 직선인 경우에는 회귀 직선이라 한다

로지스틱 회귀
-종속변수가 이항형 문제(유효한 범주의 개수가 두개인 경우)를 분류할 때 사용
- 장점
- 계산 비용이 적고 구현이 쉽다
- 결과 해석을 위한 표현이 쉽다
- 단점
- Underfitting경향이 있어 정확도가 낮게 나올 수 있다
Logistic Regression의 특징
분류 방법
-
Hypothesis Function은 다음과 같은 형태를 갖는다

-
시그모이드 함수의 특징 처럼 Cost Function도 다음과 같은 특징을 갖는다

-
Linear Regression가 마찬가지로 최적의 θ값을 찾기 위해 Gradient Descent을 이용

증명
- Gradient Descent에서 사용한 J(θ)’ 는 다음과 같이 도출 가능하다

용어
- Overfitting과 Underfitting
- Training Data에만 과하게 적합되어 검증 데이터 집합이나 다른 입력에 대해 부정확한 결과를 내는 것을 Overfitting과이라 한다
- 위와 반대로 모호한 결과를 내는 것을 Underfitting이라 한다.

- Gradient Descent
참고
- http://terms.naver.com/entry.nhn?docId=2323285&cid=42419&categoryId=42419
- http://blog.secmem.org/647
- https://people.cs.pitt.edu/~milos/courses/cs2710/lectures/Class22.pdf
- https://share.coursera.org/wiki/index.php/ML:Logistic_Regression
Published 25 July 2015