[딥러닝 기초] Logistic Regression
다음의 책을 공부하며 정리한 내용입니다
로지스틱 회귀란
: 로지스틱 회귀는 이진분류
(Binary Classification) 문제의 해결에 사용되는 대표적인 알고리즘.
이름은 ‘회귀‘이지만 ‘
분류
‘에 쓰인다
이진분류의 모델
점수(x) | 결과(y) |
---|---|
45 | 불합격 |
50 | 불합격 |
55 | 불합격 |
60 | 합격 |
65 | 합격 |
70 | 합격 |
위와 같은 데이터가 있다고 하자.
조건은 아래와 같다.
- 합격 커트라인은 알려져있지 않다
- 임의의 점수 x의 합격여부를 예측하고 싶다.
이 경우 주어진 데이터에 대해 합격(1), 불합격(0)으로 그래프를 그리면 아래와 같이 표현할 수 있다.
위의 간단한 예시를 통해 이진분류의 문제를 풀기위한 x, y의 관계는 S 형태의 그래프
로 나타내야 함을 알 수 있다.
따라서 다음과 같은 결론을 얻을 수 있다.
- 로지스틱 회귀의 가설은 선형 회귀 때의 H(x)=Wx+b가 아니다.
- 위처럼
S자 모양의 그래프
를 만들 수 있는어떤 특정 함수 f
를 추가적으로 사용하여H(x)=f(Wx+b)의 가설을 사용
한다. - 어떤 함수 f는 이미 널리 알려져있다. =>
시그모이드 함수
즉, 로지스틱 회귀의 가설이자 이진분류 문제를 풀기위한 함수 f는 Sigmoid function
이다
Sigmoid
- 수식
H(x)=sigmoid(Wx+b)=1+e−(Wx+b)=σ(Wx+b)
- 가중치(w)의 변화에 따른 Sigmoid 함수
red: w값이 0.5 ~ blue: w값이 2
- 편향(b)의 변화에 따른 Sigmoid 함수
red: b값이 0.5 ~ blue: b값이 2
Sigmoid 함수의 특성
- 시그모이드 함수는 입력값이 한없이 커지면 1에 수렴하고, 입력값이 한없이 작아지면 0에 수렴한다.
- 시그모이드 함수의 출력은 0~1
- 위의 특성을 이용하여 분류 작업에 사용.
- 임계값 x(0 =< x =< 1)를 넘으면 1, 넘지 못하면 0으로 분류
결론
로지스틱 회귀의 가설/모델은
H(x)=sigmoid(Wx+b)
이다.
로지스틱 회귀 실습
1 | # 최종코드 |
1 | [결과] |