반응형
Precision(정확도)와 Recall(재현율), Accuracy, and etc. 는
알고리즘 및 Machine Learning 모델의 성능을 평가하는 지표로 많이 사용되고,
Confusion Matrix는
Training 을 통한 Prediction 성능을 측정하기 위해
예측 value와 실제 value를 비교하기 위한 표를 일컫는다.
■ 성능지표 및 용어 설명
용어 | 산출식 | 설명 | 예 |
Accuracy | (TP+TN)/(TP+TN+FP+FN) | 탐지율 : 맞게 검출한 비율 | 실제 악성/정상인지 맞게 예측한 비율 |
Precision | TP/(TP+FP) | 정확도 : P로 검출한 것중 실제P의 비율 | 악성으로 예측한것 중 실제 악성인 샘플의 비율 |
Recall | TP/(TP+FN) | 재현율 : 실제 P를 P로 예측한 비율 | 실제 악성 샘플 중 악성으로 예측한 비율 |
False Alarm (Fall-out) | FP/(FP+TN) | 오검출율 : 실제 N을 P로 예측한 비율 | 실제 정상 샘플을 악성으로 예측한 비율 |
TPR (True Positive Rate) = Recall | TP/(TP+FN) | 예측과 실제 모두 P | 실제 악성 샘플을 악성으로 예측한 비율 |
TNR (True Negative Rate) |
TN/(TN+FP) | 예측과 실제 모두 N | 실제 정상 샘플을 정상으로 예측한 비율 |
FPR (False Positive Rate) = False Alarm | FP/(FP+TN) | 실제 N인데 P로 검출 | 실제 정상 샘플을 악성으로 예측한 비율 |
FNR (False Negative Rate) | FN/(TP+FN) | 실제 P인데 N으로 검출 | 실제 악성 샘플을 정상으로 예측한 비율 |
■ Confusion Matrix
■ 주요 성능지표 산출식
* ref source : https://en.wikipedia.org/wiki/Confusion_matrix
■ Confusion Matrix 관련 참고 영상
(Machine Learning Fundamentals: The Confusion Matrix)
반응형
'Biusiness Insight > Data Science' 카테고리의 다른 글
Machine Learning Cheat Sheets (0) | 2017.06.27 |
---|---|
카카오 AI 리포트 (Vol.1~3) (0) | 2017.05.20 |
[TensorFlow] 텐서플로우 관련 유용한 링크 (0) | 2017.03.12 |
활용 가능한 Dataset (0) | 2016.11.23 |
Data Science & Machine Learning 관련 Coursera 추천 강의 리스트 (0) | 2016.03.20 |