반응형
앙상블 학습(Ensemble Learning)은 여러 개의 기본 모델(base models)을 결합하여 하나의 강력한 예측 모델을 만드는 머신러닝 방법이다. 이 기법은 개별 모델의 한계와 약점을 보완하며, 일반적으로 단일 모델보다 더 높은 성능을 보인다. 앙상블 학습은 분류, 회귀, 클러스터링 등 다양한 머신러닝 문제에 적용할 수 있다.
앙상블 방법에는 여러 가지 전략이 있다:
- 배깅(Bagging): 같은 유형의 여러 모델을 독립적으로 학습시키고, 그 예측을 투표나 평균으로 결합한다. 랜덤 포레스트(Random Forest)가 이에 해당한다.
- 부스팅(Boosting): 약한 모델을 순차적으로 학습시켜, 이전 모델들의 오차를 보정하는 새로운 모델을 생성한다. AdaBoost, Gradient Boosting, XGBoost가 이에 해당한다.
- 스태킹(Stacking): 여러 다른 유형의 모델을 학습시킨 후, 그 예측 결과를 입력으로 사용하여 또 다른 모델(메타 모델)을 학습시킨다.
앙상블 학습의 주요 장점은 과적합을 줄이고, 예측의 분산을 감소시키는 것이다. 이로 인해 모델의 견고성이 향상되며, 다양한 데이터 분포와 구조에 적응할 수 있다.
단점으로는 모델의 복잡성과 계산 비용이 증가할 수 있다는 점이 있다. 여러 모델을 학습시키고 결합해야 하므로, 단일 모델을 사용하는 것보다 더 많은 리소스와 시간이 필요할 수 있다.
반응형
'💖 Hongsi's Study > 📊 통계・공간통계・공간최적화' 카테고리의 다른 글
[통계] Metric distances / Semimetric distances / Nonmetric distances (0) | 2023.09.07 |
---|---|
[통계] 로지스틱회귀 :: 연속형변수와 범주형 변수를 사용할 때 차이 (0) | 2023.09.07 |
[공간통계] 생존분석 (event-history (survival) analysis) (0) | 2023.09.04 |
[공간통계] 다수준 모형 (multilevel or mixed-effect model) (0) | 2023.09.04 |
[공간통계] 범주형 자료의 상관분석 (categorical association measure) (0) | 2023.09.04 |
댓글