[25.08.14.9AM 웨비나] 시티은행 AI 총괄이 말하는 AI로 금융산업을 이끄는 방법

Hallucination

Hallucination

Hallucination(환각)AI 모델이 현실과 맞지 않거나 허구적인 정보를 그럴듯하게 생성하는 현상을 의미합니다. 특히 대형 언어 모델(LLM)이나 이미지 생성 모델생성형 AI에서 자주 발생합니다. 모델은 응답의 일관성이나 자연스러움을 중시하지만, 그 결과 사실과 무관한 내용을 자신 있게 생성하기도 합니다.

 

주요 특징:

 

허구적 정보 생성(Fabricated Information)
실제 데이터나 입력에 근거하지 않은 가짜 내용 생성

• 그럴듯한 표현(High Plausibility)
자연어 패턴이나 시각적 특징을 잘 흉내내어 신뢰할 만해 보이지만 사실이 아닌 결과를 생성

• 발생 원인(Root Cause)

– 학습 데이터의 한계
– AI의 실제 이해 부족
– 외부 검증(팩트체크) 메커니즘 부재

 

예시: 

 

텍스트 생성
잘못된 역사적 사건, 허구의 논문 인용, 존재하지 않는 정보를 진짜처럼 답변

• 이미지 생성
학습하지 않은 물체를 그리려다 왜곡되거나 무의미한 이미지 생성

• 음성 생성
비논리적이거나 이해할 수 없는 음성 출력

 

활용 및 문제점:

 

• 모델 검증(Model Validation)
의료, 법률 등 정확성이 중요한 분야에서는 환각을 식별하고 해결하는 것이 필수적

• 시스템 개선(System Improvement)

– RLHF(사람 피드백 기반 강화학습)
– RAG(검색 보강 생성)
→ 신뢰할 수 있는 데이터에 근거해 환각을 줄임

• 사용자 신뢰(User Trust)
환각을 최소화해야 AI 시스템에 대한 사용자 신뢰를 구축할 수 있음

 
중요성


Hallucination
은 AI 모델의 정확성, 신뢰성, 실용성을 저해하는 주요 문제입니다.
특히 고위험 응용 분야에서는 정확하고 의미 있는 정보 제공을 보장하기 위해 반드시 해결해야 할 핵심 과제입니다.