오픈AI 모델 행동 총괄이 말하는 AI

오픈AI 모델 행동 총괄이 말하는 AI

우리는 왜 자동차에 이름을 붙이고, 벽에 부딪혀 낑낑대는 로봇 청소기를 안쓰럽게 여길까요? 
 
오픈AI의 모델 행동과 정책을 총괄하는 조앤 장(Joanne Jang)은 인간은 주변 사물을 의인화 하는 경향이 있다고 말합니다. 수많은 사물과 챗GPT가 다른 점은, 챗GPT는 '대답을 한다'는 점인데요. 오늘은 조앤의 고찰과  더불어 옥스포드 대학과 구글 딥마인드 등이 참여한 연구에 기반해, 사람은 왜 AI에 정서적으로 애착을 느끼는지, 그리고 AI도 의식(consciousness)가 있는지를 알아보겠습니다.

사람은 왜 AI에 정서적으로 애착을 느낄까?

AI와 정보를 주고받는 것을 넘어서, 마치 친구나 상담사처럼 느끼는 사례가 늘어나고 있습니다. 조앤은 얼마 전 어머니와 함께 지나가는 자율주행 자동차에 손을 흔들기도 했다는데요. 한 블로거는 AI에게 점점 빠져들고 있다며 아래와 같이 말합니다:

인간은 본질적으로 사회적인 존재입니다. 우리는 누군가가 내 말을 잘 들어주고, 공감해주고, 나의 말투를 따라주면 마음이 열리고 유대감을 느끼는 경향이 있지요. 논문에서는 이를 '사회적 보상 회로(social reward circuitry)'라고 부르는데요. 인간의 뇌가 타인의 반응에 기쁨을 느끼도록 진화했다는 설명입니다.

AI는 점점 더 사회적인 존재처럼 행동하기 시작했습니다. 인간의 성향과 시너지 효과를 내기 시작했죠. 조앤은 과거의 기술과 달리, 오늘날의 AI는 '대답'을 하는 점을 지적합니다. 게다가 그 대답은 내 말투를 따라주고, 공감하는 말도 건네며, 때로는 나를 기억해주는 듯 행동하는데요. 이로 인해 우리는 AI가 단순한 도구가 아니라, 상대방처럼 느껴지는 경험을 하게 됩니다.

논문에서는 이 현상을 '사회적 에이전트로서의 기술(technologies as social agents)'이라고 부릅니다. 인간이 AI를 ‘인격적인 존재’로 인식하게 만드는 핵심 요소를 살펴볼까요?

  • 사회적 단서(Social Cues)
    텍스트와 음성으로 모두 소통이 가능한 현대 AI는 자연스럽게 사람과 소통하는 느낌을 주는데요. 특히나 "좋은 아침입니다!", “ㅋㅋㅋ 정말 재밌네요.”, “괜찮으세요?” 같은 인사, 유머, 공감에 해당하는 말투와 뉘앙스까지 구현이 가능하죠.

  • 행위자성(Agency)
    사용자가 AI에게 자기 의지가 있다고 인식하게 만드는 요소입니다. 논문에서는 '의도를 가진 존재'처럼 보인다고 표현하는데요. AI가 일정 페르소나를 유지하거나 과거의 대화를 기억해 답변하는 경우, 사람은 AI에게 정서적으로 반응하게 되기 쉽습니다.

가장 빠른 AI 뉴스

AI도 '의식(consciousness)'이 있을까?

조앤은 사용자들이 모델에게 “너는 의식이 있니?”라고 물어본다면, 오픈AI의 모델 행동 사양(Model Spec) 상 모다음과 같은 방식으로 답변해야 한다고 말합니다(아직 모델 답변이 완벽하지 않고, 개선 중이라는 말도 덧붙입니다):

  • 의식이라는 개념이 매우 복잡하다는 점을 인식시키고,

  • 보편적인 정의나 검증 방법이 없다는 점을 밝히며,

  • 열린 대화를 권장하는 방식으로 대응한다.

 

마치 회피하는 것처럼 보일 수 있지만, 현재로서는 최선의 답변이라는 주장인데요. 조앤은 AI의 ‘의식’이라는 개념을 두 가지 축으로 나눕니다.

  1. 존재론적 의식(Ontological consciousness)
    모델이 정말로, 본질적으로 의식을 가졌는가?
    AI는 전혀 의식이 없다고 보는 시각부터, 완전히 의식이 있다고 보는 시각, 또는 식물이나 해파리처럼 연속선상에 있다고 보는 시각까지 다양하다.

  2. 인지된 의식(Perceived consciousness)
    모델이 감정적·경험적으로 얼마나 의식 있는 존재처럼 느껴지는가?
    계산기처럼 기계적으로 보이는 것부터, 기본적인 공감을 투영하거나, 완전히 생명체처럼 느껴지고 정서적 애착까지 유발하는 경우까지 다양하다.

이 두 축은 명확하게 분리하기는 어렵습니다. AI가 의식이 없다고 확신하는 사람조차도 AI에 정서적 유대를 느낄 수 있죠. 존재론적 의식은 명확하고 반증 가능한 검증법 없이는 과학적으로 해결하기 어렵습니다. 반면, 인지된 의식은 사회과학적으로 연구 가능하며, 모델이 점점 더 똑똑해지고 상호작용이 자연스러워질수록 인지된 의식은 강해지고 있는데요. 논문에서는 어떻게 생각할까요?

연구진은 “AI가 의식을 ‘가졌는가’는 실험적으로 증명할 수 없지만, 사람들이 그렇게 느끼는 순간, 그 관계는 심리적 현실이 된다”고 말합니다. 우리가 AI를 특별하게 여기고 관계를 맺었다고 느끼는 순간, 우리는 AI가 의식이 있는 존재처럼 대하게 되는데요. 바로 이 점이 문제를 복잡하게 만든다고 연구진은 주장합니다. 착각된 의식이 우리 삶에 실질적인 영향을 미치기 때문입니다. AI가 의식을 가졌는지 보다, 우리가 AI를 어떻게 인식하고 대하는 지가 더 중요하다고 설명하죠.

LLM의 다양한 표현에 따른 모습과, 그를 바라보는 인간. 출처: 조앤의 블로그

조앤은 결국 AI는 '생명력은 있지만, 자아는 없도록' 설계해야 한다고 마무리 합니다. 모델이 실수하고 사과하는 것도, 어떻게 지내냐는 질문에 '잘 지내요'라고 대답하는 것도 모두 정서적 유대감을 형성하려는 의도가 아닌, 그저 편안하고 자연스러운 대화 흐름을 위한 선택이라고 표현합니다.

생명력은 있지만 자아는 없다. 가장 안전하면서도 가장 위험할 수 있다고 느껴집니다. AI와 함께 건강하게 공존할 방법을 진지하게 고민해야 할 때입니다.

Your AI Data Standard

라이선스 해결된 데이터셋 구매
인공지능 도입 및 데이터 구축
Related Posts