[25.08.14.9AM 웨비나] 시티은행 AI 총괄이 말하는 AI로 금융산업을 이끄는 방법

Underfitting

Underfitting

Underfitting(언더피팅)이란 머신러닝 모델이 너무 단순하여 데이터의 근본적인 패턴을 제대로 학습하지 못하는 현상을 의미합니다. 이로 인해 훈련 데이터와 테스트 데이터 모두에서 낮은 성능을 보이며, 데이터의 신호(signal)를 제대로 포착하지 못합니다. 일반적으로 모델의 복잡도가 너무 낮거나, 특징(feature)이 부족하거나, 학습이 충분히 이루어지지 않았을 때 발생합니다.

 

주요 특징:

 

높은 편향(bias), 낮은 분산(variance): 모델이 지나치게 단순한 가정을 하여 예측이 일관되게 부정확함.

• 낮은 훈련 정확도: 오버피팅과 달리 훈련 데이터에서도 성능이 좋지 않음.

• 과도한 단순화로 인한 문제: 너무 얕은 모델, 적은 수의 파라미터, 부족한 특징량, 학습 부족 등이 원인.

• 완만한 학습 곡선: 훈련 손실과 검증 손실이 모두 높고 서로 비슷하게 유지됨.

• 해결 가능: 모델의 복잡도를 높이거나, 특징을 추가하거나, 학습을 더 수행함으로써 개선할 수 있음.

 

언더피팅이 발생하기 쉬운 상황: 

 

베이스라인 모델: 단순한 기준 모델로 의도적으로 언더피팅된 구조를 가짐.

• 실시간 시스템: 속도나 자원 제한을 우선시하여 의도적으로 단순한 모델을 사용.

• 초기 학습 단계: 학습 초반에는 충분히 학습되지 않아 일시적으로 언더피팅처럼 보일 수 있음.

• 복잡한 문제 영역: 자연어 처리, 컴퓨터 비전 등 복잡한 문제에서는 고용량 모델이 필요하므로 단순한 모델은 언더피팅되기 쉬움.

 

중요성

 

언더피팅된 모델은 정확도가 낮고 중요한 패턴을 놓쳐 실질적인 활용이 어렵습니다. 따라서 실제 문제에 유의미한 결과를 제공하려면 언더피팅을 피하는 것이 필수적입니다. 충분한 학습과 적절한 모델 복잡도를 통해 의미 있는 예측을 수행할 수 있는 모델을 구축해야 합니다.

관련 용어