본문 바로가기
딥러닝관련/기초 이론

Sensitivity(민감도) & Specificity(특이도)

by 머리올리자 2020. 7. 1.

Sensitivity

  - 의학적 진단 기준 : 질병이 있는 사람을 얼마나 잘 찾아내는가, 질병이 있는 사람을 질병으로 진단하는 비율

  - 생체인식 기준 : Authentic을 authentic으로 잘 구분한 경우

  - True Positive Rate

  - 양성을 양성으로 판단

 

Specificity

  - 정상을 얼마나 잘 찾아 내는가, 정상을 정상이라고 진단하는 비율(의학적 진단 기준)

  - 생체인식 기준: Impostor을 imposter으로 잘 구분한 경우

  - True Negative Rate

  - 음성을 음성으로 판단

 

출처 : 위키피디아

Relevant elements는 말그대로 유사한 elements, 양성인 elements와 음성인 elements를 표현한 것이다.

 

동그라미 구간 : positive으로 인식되는 영역

나머지 구간 : negative로 인식되는 영역

 

앞의 True와 False를 잘 구분되었냐, 잘 구분하지 못하였냐로 본다면 이해하기 쉽다.

 

True Positive: Positive element로 분류되었는데 실제로도 positive인 경우

True Negative: Negative element로 분류되었는데 실제로도 negative인 경우

 

False case는 한 번만 더 생각해보면 된다.

 

일단 의미만 봐보자

 

False Positive

  잘못 positive로 들어왔다 →

  positive가 아닌데 positive로 분류 되었다  

  얘는 negative다

  즉 negative element가 positive element로 잘못 분류된 것이다.

 

False Negative

  잘못 negative로 들어왔다 →

  negative가 아닌데 negative로 분류 되었다  

  얘는 positive다 

  즉 positive element가 negative element로 잘못 분류된 것이다.

 

정리하자면

False Positive: Positive element로 분류되었는데 실제로는 negative인 경우

False Negative: Negative element로 분류되었는데 실제로는 positive인 경우

 

이제 위의 그림이 이해될 것이다.

 

Sensitivity, 민감도는 모든 positive element 중 진짜 positive element를 계산하는 것이기 때문에 계산식으로 나타내자면

 

Sensitivity = TP / (TP + FN)

 

Specificity, 특이도는 모든 negative element 중 진짜 negative element를 계산하는 것이기 때문에 계산식으로 나타내자면

 

Specificity = TN / (TN + FP)

 

으로 표현할 수 있다.

 

 

참고 1 : https://en.wikipedia.org/wiki/Sensitivity_and_specificity

참고 2 : https://adnoctum.tistory.com/981

'딥러닝관련 > 기초 이론' 카테고리의 다른 글

Orthogonal (직교) vector  (0) 2021.02.07
Norm  (0) 2021.02.06
Representation  (0) 2020.07.07
Batch Normalization  (0) 2020.07.06
왜 딥러닝(deep learning) 이라고 하는가  (0) 2020.07.01