노년도 할수있다/한자와 함께하는 데이터과학

제1종 오류와 제2종 오류

forSilver 2026. 1. 31. 13:21
반응형

제1종 오류 제2종 오류

가설검정의 결론을 내릴 때, 우리는 신이 아니기에 항상 '실수'의 가능성을 안고 있습니다. 통계학에서는 이 실수를 로 구분합니다.

한자 어원과 재판 예시를 통해 아주 쉽게 정리해 드릴게요.


1. 한자 어원과 기본 정의

두 오류의 핵심은 "귀무가설을 어떻게 처리했는가"에 있습니다.

① 제1종 오류 (第1種 誤謬)

  • 의미: 귀무가설이 실제로 참인데도, 이를 잘못 기각(버림)하는 오류.
  • 별칭: (알파) 오류, 유의수준, 가짜 양성(False Positive).
  • 한자 풀이: * 오(誤): 그릇될 오 (사실과 다르게 함)
  • 류(謬): 그르칠 류 (잘못하여 일을 망침)

비유: "멀쩡한 사람을 죄인으로 만드는 성급함"

② 제2종 오류 (第2種 誤謬)

  • 의미: 귀무가설이 실제로 거짓인데도, 이를 기각하지 못하고 채택하는 오류.
  • 별칭: (베타) 오류, 가짜 음성(False Negative).
  • 비유: "진짜 죄인을 증거 부족으로 풀어주는 조심스러움"

2. 재판 상황으로 보는 비교 (가장 쉬운 이해법)

통계학에서는 흔히 "무죄 추정의 원칙"을 귀무가설로 봅니다.

  • 귀무가설: 피고인은 무죄이다.
  • 대립가설: 피고인은 유죄이다.
구분 실제 상황: 무죄 (H₀ 참) 실제 상황: 유죄 (H₀ 거짓)
판결: 무죄 (H₀ 채택) 올바른 판결 (True Negative) 제2종 오류 (죄인을 풀어줌)
판결: 유죄 (H₀ 기각) 제1종 오류 (억울한 옥살이) 올바른 판결 (True Positive)

왜 1종 오류가 더 중요한가요?
현대 사법 체계나 과학계에서는 "죄 없는 사람 한 명을 감옥에 보내는 것()"이 "죄인 한 명을 놓치는 것()"보다 훨씬 더 심각한 문제라고 봅니다. 그래서 통계에서도 1종 오류의 확률()을 0.05 등으로 미리 고정하고 엄격하게 관리하는 것입니다.


3. 시험 포인트: 상충 관계 (Trade-off)

빅데이터분석기사 필기 시험에서 단골로 나오는 성질입니다.

  1. 시소 관계: 제1종 오류를 줄이려고 기준을 엄격하게 잡으면, 자연스럽게 제2종 오류는 늘어납니다. (반대의 경우도 마찬가지입니다.)
  2. 동시에 줄이는 방법: 두 오류를 동시에 줄일 수 있는 유일한 방법은 표본 크기를 키우는 것입니다. 데이터가 많아지면 판정이 정확해지기 때문입니다.
  3. 검정력(Power): 제2종 오류를 범하지 않을 확률입니다. 즉, "실제 유죄인 놈을 진짜 유죄라고 판정할 수 있는 능력"을 의미하며, 높을수록 좋은 분석입니다.

4. 요약 정리

  • 1종 오류: "없는데(무죄) 있다고(유죄) 하는 오류" → 성급한 결론
  • 2종 오류: "있는데(유죄) 없다고(무죄) 하는 오류" → 둔감한 결론