Bias/variance trade-off
지도 학습 알고리즘이 트레이닝 셋의 범위를 넘어 지나치게 일반화 하는 것을 예방하기 위해
두 오차를 최소화 할 때 겪는 문제
Bias
잘못된 가정을 했을 때 발생하는 오차
높은 bias 값은 알고리즘이 데이터의 특징과 결과물과의 적절한 관계를 놓치게 만듦(under-fitting)
(정답 - 예측값 얼마나 차이 있음??)
Variance
Training 셋에 내재된 작은 fluctuation 때문에 발생하는 오차
높은 variance는 큰 노이즈까지 모델링에 포함시키는 over-fitting 문제 발생
(예측의 범위가 얼마나 큼??)
위 그림을 봐보자.
모델이 복잡할수록(high model complexity) bias는 감소하고 variance는 높아지며
(즉, over-fitting이 발생할 가능성 높음)
모델이 간단할수록(low model complexity) bias는 증가하고 variance는 낮아진다.
(즉, under-fitting이 발생할 가능성 높음)
'딥러닝관련 > 기초 이론' 카테고리의 다른 글
로지스틱 회귀(logistic regression) (0) | 2022.03.02 |
---|---|
규제가 있는 선형 모델 (0) | 2022.02.27 |
다항 회귀 (polynomial regression) (0) | 2022.02.21 |
Mini-batch Gradient Descent(미니배치 경사 하강법) (0) | 2022.02.20 |
Stochastic gradient descent(확률적 경사 하강법) (0) | 2022.02.20 |