딥러닝관련94 MMSegmentation 사용하기 (Installation, env setting, inference with pre-trained models) https://github.com/open-mmlab/mmsegmentation GitHub - open-mmlab/mmsegmentation: OpenMMLab Semantic Segmentation Toolbox and Benchmark. OpenMMLab Semantic Segmentation Toolbox and Benchmark. - GitHub - open-mmlab/mmsegmentation: OpenMMLab Semantic Segmentation Toolbox and Benchmark. github.com Segmentation을 하기 위해 위의 open-mmlab에서 나온 mmsegmentation을 이용하여 환경을 세팅하였다. https://mmsegmentation.readthedo.. 2022. 3. 3. 로지스틱 회귀(logistic regression) Logistic regression (or logit regression) 분류에서 사용할 수 있는 회귀 알고리즘 샘플이 특정 클래스에 속할 확률 추정하는데 널리 사용.(ex, 스팸일 확률? -> 50% 넘으면 스팸으로 분류) 추정 확률이 일정 기준치를 넘어가면 양성 클래스 (positive class)추정 확률이 일정 기준치를 넘지 못하면 음성 클래스 (negative class) -> 이진 분류 (binary classification) 확률 추정 우선, linear regression 모델과 같이 logistic regression model은 입력 특성의 weight의 합을 계산(+ bias) 대신, linear regression처럼 결과를 바로 출력하지 않고, 결과의 값의 logistic을 출.. 2022. 3. 2. 규제가 있는 선형 모델 Over-fitting을 감소시키는 좋은 방법은 규제를 하는 것. 자유도를 줄이면 데이터에 over-fitting되기 어려움. ex) 다항 회귀 모델을 규제하는 간단한 방법은 차수를 감소시키는 것. 선형 회귀 모델에ㅐ서는 보통 모델의 weight를 제한함으로써 규제를 함. 1. 릿지 규제(ridge regularization) 위 수식이 cost fuction에 추가됨. 이는 학습 알고리즘을 데이터에 맞추는 것뿐만 아니라 모델의 가중치가 가능한 한 작게 유지되도록 노력 당연히도, regularization term은 학습 중에만 loss function에 추가 α는 모델을 얼마나 많이 규제할지 조절하는 파라미터 α가 0이면 ridge regression은 linear regression과 동일 α가 매우.. 2022. 2. 27. 편향/분산 트레이드 오프 (Bias/variance trade-off) Bias/variance trade-off 지도 학습 알고리즘이 트레이닝 셋의 범위를 넘어 지나치게 일반화 하는 것을 예방하기 위해 두 오차를 최소화 할 때 겪는 문제 Bias 잘못된 가정을 했을 때 발생하는 오차 높은 bias 값은 알고리즘이 데이터의 특징과 결과물과의 적절한 관계를 놓치게 만듦(under-fitting) (정답 - 예측값 얼마나 차이 있음??) Variance Training 셋에 내재된 작은 fluctuation 때문에 발생하는 오차 높은 variance는 큰 노이즈까지 모델링에 포함시키는 over-fitting 문제 발생 (예측의 범위가 얼마나 큼??) 위 그림을 봐보자. 모델이 복잡할수록(high model complexity) bias는 감소하고 variance는 높아지며 (즉.. 2022. 2. 27. 이전 1 ··· 3 4 5 6 7 8 9 ··· 24 다음