분류 모델의 성능을 한눈에 파악하고 비교할 때 가장 많이 사용되는 지표가 바로 ROC 곡선과 AUC입니다.
단순히 "정답을 몇 개 맞혔느냐"를 넘어, 모델이 얼마나 **"양성과 음성을 잘 구분해내는가"**를 시각적, 수치적으로 보여줍니다.
1. ROC 곡선 (Receiver Operating Characteristic Curve)
"임계값(Threshold)에 따른 모델의 태도 변화를 보여주는 그래프"
우리가 분류를 할 때 보통 "확률이 0.5 이상이면 양성"이라고 판단하지만, 상황에 따라 이 기준(임계값)을 0.1이나 0.9로 바꿀 수 있습니다. ROC 곡선은 이 임계값을 0부터 1까지 변화시킬 때 모델의 성능이 어떻게 변하는지를 나타냅니다.
- X축: FPR (False Positive Rate, 위양성률)
- 실제 음성(정상) 중 양성(암)이라고 잘못 예측한 비율입니다. (낮을수록 좋습니다.)
- 공식: $1 - Specificity$ (1 - 특이도)
- Y축: TPR (True Positive Rate, 재현율/민감도)
- 실제 양성(암) 중 양성이라고 제대로 맞춘 비율입니다. (높을수록 좋습니다.)
해석 방법:
곡선이 **왼쪽 상단 모서리(0, 1)**에 바짝 붙을수록 좋은 모델입니다. 이는 가짜 양성(FPR)은 거의 없으면서 진짜 양성(TPR)은 완벽하게 찾아낸다는 뜻이기 때문입니다.
2. AUC (Area Under the Curve)
"ROC 곡선 아래의 면적, 모델의 실력을 나타내는 단 하나의 숫자"
ROC 곡선은 그래프라 모델끼리 비교하기 복잡할 수 있습니다. 그래서 이 곡선 아래의 면적을 수치화한 것이 AUC입니다.
- 범위: 0.5 ~ 1.0
- 수치별 의미:
- 1.0: 완벽한 모델. 양성과 음성을 100% 완벽하게 구분합니다.
- 0.9 ~ 1.0: 매우 훌륭한(Excellent) 성능.
- 0.7 ~ 0.8: 보통(Acceptable) 수준의 성능.
- 0.5: 무작위 추측(Random Guessing). 동전 던지기와 다를 바 없는 상태입니다. (그래프 상에서 대각선 직선)
3. 왜 ROC와 AUC를 쓰나요?
- 데이터 불균형에 강함: 암 환자가 1%뿐인 데이터에서 정확도(Accuracy)는 99%가 나오기 쉽지만, ROC-AUC는 양성과 음성의 구분 능력을 보기 때문에 모델의 실제 실력을 더 객관적으로 평가할 수 있습니다.
- 임계값에 독립적임: 특정 기준(예: 0.5)에서의 성능이 아니라, 모델이 가진 근본적인 분류 잠재력을 평가할 수 있습니다.
요약하자면
- ROC 곡선은 모델이 임계값에 따라 어떻게 행동하는지 보여주는 그래프이고,
- AUC는 그 그래프의 면적을 계산하여 모델의 성능을 요약한 점수입니다.
'AI' 카테고리의 다른 글
| 최소제곱법(Least Squares Method) (0) | 2025.12.22 |
|---|---|
| 선형 회귀와 비선형 회귀 (0) | 2025.12.22 |
| 분류 모델의 성능을 평가 (0) | 2025.12.22 |
| AI 분류(Classification) 모델 (0) | 2025.12.22 |
| 머신러닝(Machine Learning)과 딥러닝(Deep Learning) (0) | 2025.12.22 |