K-Fold Cross Validation
- K겹 교차검증
- 통계학에서 모델을 평가하는 방법 중 하나
- 데이터 셋의 크가가 작은 경우, 성능 평가의 신뢰성이 떨어지는 문제 발생 -> 모든 데이터가 최소 한 번은 테스트 셋으로 쓰이도록 하는 것이 K-겹 교차 검증
데이터를 검증하는 방법
- 모델의 타당성을 검증하는 크로스 밸리데이션
교차 검증 : Cross-validation
- 모델의 타당성을 검증하는 방법 중 하나
- 특정 데이터를 훈련 전용데이터와 테스트 전용 데이터로 분할
- 훈련데이터로 학습하고 테스트 데이터로 학습의 타당성 검증하는 방법
K 분할 교차 검증 : K-fold cross validation
3-fold cross validation
- 집합 X 를 3개로 분할 : A, B, C
- A:테스트, (B,C):훈련 => 정밀도 s1
- B:테스트, (A,C):훈련 => 정밀도 s2
- C:테스트, (A,B):훈련 => 정밀도 s3
- s1, s2, s3의 평균을 구해 최종적인 분류 정밀도 구하기
↓ K 분할 교차 검증 예제
'Python > 데이터 분석' 카테고리의 다른 글
[Python] KoNLP (자연어 처리) 5 - movie reviews 샘플 예제로 텍스트 분석 / most_similar / similarity (0) | 2020.07.22 |
---|---|
[Python] KoNLP (자연어 처리) 4 - 네이버 검색결과로 텍스트 마이닝 (0) | 2020.07.22 |
[Python] KoNLP (자연어 처리) 3 - 문장 유사도 측정 - Scikit-learn (vectorizer) / tfidf (0) | 2020.07.22 |
[Python] Text Analytics 개념 (0) | 2020.07.21 |
[Python] KoNLP (자연어 처리) 2- Naive Bayes Classifier (영문/한글) / 품사부착 (0) | 2020.07.21 |
댓글