Laboratory

AI가 인간의 불안을 다루는 법

AI 에이전트가 미래의 나처럼 말하며 나를 위로하고 조언한다면, 우리는 어떤 결정을 할 수 있을까. 오래된 자기 성찰 기법 ‘미래의 나에게 편지 쓰기’에 대규모 언어모델을 접목한 실험은 인간 중심 인공지능의 방향을 다시 묻고 있다.

AI가 인간의 불안을 다루는 법 미래의 나에게서 온 편지 :
LLM 기반 에이전트를 활용한
편지 교환 활동 확장과 청년 진로 탐색 지원
인간중심 인공지능 연구센터 임하진ㆍ김은미 교수 연구팀 & 카네기멜론대 공동연구팀 AI 에이전트가 미래의 나처럼 말하며 나를 위로하고 조언한다면, 우리는 어떤 결정을 할 수 있을까.
오래된 자기 성찰 기법 ‘미래의 나에게 편지 쓰기’에 대규모 언어모델을 접목한 실험은 인간 중심 인공지능의 방향을 다시 묻고 있다.

진로 탐색 돕는 LLM 기반 ‘미래 자아 에이전트’ ‘미래의 나에게 편지 쓰기(Future Self Letter)’는 미래의 자신에게 편지를 보내거나, 미래의 자아가 되어 현재의 자신에게 조언을 건네는 자기 성찰 기법이다. 세계의 진로 설계 수업과 멘토링 현장에서 오랫동안 활용됐지만, 미래를 스스로 상상해야 하는 인지적 부담과 현실감 부족으로 몰입에 한계가 있었다.
문제 보완을 위해 연구진은 대규모 언어모델(LLM)을 기반으로, 사용자의 정체성과 가치관, 현재 상황을 반영한 맞춤형AI ‘미래 자아 에이전트(future-self agent)’를 설계하고 실험했다.실험에 참가한 총 36명의 청년들이 3년 뒤의 자신에게 편지를 쓴 뒤, 세 그룹으로 나뉘어 서로 다른 방식으로 ‘미래 자아’와 상호작용했다. 첫 번째 그룹은 직접 답장을 작성했고, 두 번째 그룹은 AI가 생성한 미래 자아의 편지를 읽었으며, 세 번째 그룹은 AI 에이전트와 실시간 채팅으로 대화를 나눴다.
실험 결과, 진로 탐색 과정에서 가장 높은 몰입도와 정서적 만족도를 보인 것은 두 번째 그룹이었다. 사용자가 ‘편지 형식’으로 내용을 보면 천천히 읽게 되고 감정을 이입해 깊은 정서적 성찰을 할 수 있었다. 실시간 채팅을 활용한 그룹은 빠른 반응과 유연한 대화로 정보 탐색과 진로 조정 등 실용적인 의사결정에 유리했다. AI 응답의 품질이 높아진 것은 사용자의 특성과 맥락을 반영하는 별도의 프레임쿼크 ‘SPeCtrum’ 덕분이었다.
다만, AI가 생성한 조언이 지나치게 현실적으로 전달될 경우, 사용자가 그것을 ‘이미 정해진 미래’로 오해하는 사례도 있었다. 연구진은 향후 에이전트의 개입 강도와 표현 방식을 한층 정교하게 설계해 사용자의 자율성이 침해받지 않도록 해야 한다고 강조했다. 또한, 민감한 개인 정보를 다루는 만큼, 사생활 보호와 윤리적인 정보 활용 논의도 병행해야 한다고 밝혔다.
제1저자인 전하연 박사과정생은 “AI는 인간의 판단을 대신하는 존재가 아니라, 사용자가 자신의 내면과 대화하며 진로 탐색을 이끄는 조력자로 설계했다”고 설명했다. 연구진은 “청년들이 미래 자아 에이전트와 상호작용을 하며 진로에 대한 불안을 완화하고, 자신의 가능성을 구체적으로 그려보기를 기대한다”고 전했다.

- 『CHI 2025』 최우수논문상(Best Paper Award) 수상 -

<   이전글 보기 다음글 보기   >