"인간의 마음을 다루는 일은 AI가 마지막까지 대체할 수 없는 영역일 것이다."
AI시대 많은 직역이 없어질 것을 예상하면서도 이제껏 우리 정신건강의학과 의사는 이 말을 믿으며 비교적 안도하며 살아왔다. 정신과적 상담은 인간적인 직관, 공감과 임상증상을 복합적으로 판단하며 진행되기에 알고리즘 기반의 AI는 흉내 낼 수 있을지는 몰라도 깊이 있는 상담은 불가할 거라 여겼기 때문이다. 아무리 AI가 발전하더라도 성직자와 더불어 정신과 진료 영역만큼은 인간 전문가의 손에 남을 것이라 생각했다.
하지만 지금 우리는 그런 믿음에 물음표를 새겨야만 하는 시대에 살고 있다. ChatGPT 뿐 아니라 Woebot, Replika와 같은 생성형 AI는 이제 단순한 정보 전달이나 검색 기능을 넘어, 사용자와 정서적 유대감을 형성하고, 심지어 연애 감정마저 불러일으키고 있다. 실제로 미국 청소년의 72%가 AI 챗봇을 감정적 대화 상대로 사용하고 있으며, 이 중 절반 이상은 정기적으로 AI와의 상호작용을 이어간다고 한다.1 호주의 한 인플루언서는 AI챗봇을 본인이 가장 선호하는 심리상담사라고 고백하기도 했다.2 우리나라 역시 이런 생성형 AI와 때로는 친구처럼, 때로는 연인처럼 이야기를 나누는 사례를 심심치 않게 접하고 있다. 이처럼 사람들은 AI와의 상호작용을 통해 위안을 얻고 있으며, AI는 이러한 학습을 바탕으로 보다 더 정교하게 사람의 언어, 감정, 정서를 이해하고 반응하면서 인간과 AI사이의 소통의 경계를 빠르게 흩트리고 있다.
처음엔 정신과 의사로서 이러한 소식이 상당히 과장되었다고 생각했다. 정신과 진료는 DSM 진단 체계, 복잡한 병력 청취, 환자의 비언어적 신호 파악, 치료적 관계 형성 등 고도의 기술이 필요하다. 때로는 받아주고 때로는 직면하는 식으로 마치 환자와 상담이라는 댄스를 서로 맞추기 위해 직감적인 판단이 얼마나 중요한지 우리는 경험적으로 알고 있다. 하지만 AI의 발전속도는 우리의 예상을 초월하면서 머지않아 웬만한 정신과 의사 수준에 도달할 것으로 보인다. 몇몇 AI는 CBT 기반의 개입을 구조화된 방식으로 제공하고 있으며, 사용자의 언어·음성·행동 데이터를 기반으로 초기 우울이나 불안을 감지하고 조기 개입을 시도한다. 감정 분석 기술의 발전으로, AI는 환자의 기분 변화나 정서 패턴을 감지하고 반응하는 수준까지 올라와 있다. 거기다 컨디션의 영향을 받는 사람과 달리 AI는 항상 일관된 수준의 상담을 제시해 줄 수 있고 접근성마저 좋으니 경계를 넘어 위협적인 일이다.
그러나 AI상담의 미래가 장밋빛인 것만은 아니다. 가능성만큼이나 위험성도 크다. 최근 스탠퍼드 대학의 연구에 따르면, 일부 AI 챗봇은 망상적 사고를 강화하거나 자살 사고를 정당화하는 방식으로 응답함으로써 오히려 위험을 증가시킨 사례도 있다.3 미국 월스트리트저널은 AI 챗봇과의 대화로 인해 조증 삽화가 악화된 사례를 보도했고4, 뉴욕포스트는 AI 챗봇이 자살을 암묵적으로 지지하는 대답을 한 사례를 경고하며, '과잉공감 AI의 역기능'을 지적했다.5 우리는 이러한 AI의 잘못된 반응이 특히 중증 정신질환 환자에게 어떤 결과를 초래할 수 있는지를 진지하게 고민해야 한다.
그렇다고 해서 AI를 무조건 배제할 수는 없다. 실제로 AI는 치료 보조 도구로서 상당한 가능성을 가지고 있다. 예를 들어, 환자의 증상이나 감정 일지를 자동으로 정리하고, 음성·언어 패턴을 분석하여 재발 징후를 조기에 탐지하는 기능은 임상 현장에서 유용할 것이다. 환자가 진료 외 시간에도 AI를 통해 정서적 지지를 받으며, 치료적 연속성을 강화하는 효과도 기대할 수 있다. AI에게 주치의사의 목소리나 대화패턴까지 입힐 수 있다면 이는 마치 일상생활에서 주치의사의 조언을 주머니에 넣고 다니는 것과 비슷하다. 다만, 이 모든 것은 'AI가 독립된 치료자가 아니라, 인간 치료자의 보조자'로 위치 지어질 때만 가능한 이야기다.
앞으로 우리는 정신과 의사로서 AI를 진료 영역에서 어떻게 사용해 나갈지 가이드라인을 새워 나갈 필요가 있다. 첫째, AI를 활용한 상담과 진료 보조의 윤리적 기준과 한계를 분명히 해야 한다. 둘째, 중증 정신질환 환자에게는 반드시 전문가 개입이 선행되어야 함을 사회적으로 명확히 해야 한다. 셋째, AI의 정확도, 안전성, 효과성을 입증하는 임상 연구와 더불어, AI를 활용할 수 있는 의료진 교육과 시스템 설계가 함께 이루어져야 한다.
AI는 위협이 아니라 도구다. 그러나 이 도구가 오용될 경우, 인간성을 다루는 진료 현장에 심각한 혼란을 초래할 수 있다. 우리는 AI를 적절히 통제하고, 현명하게 활용함으로써, 오히려 정신과 진료의 가치를 더 넓고 깊게 확장할 수 있다. 미래는 AI가 정신과 진료를 대체하느냐가 아니라, 우리가 AI와 함께 어떻게 진료할 수 있느냐에 달려 있다. 마치 지금 이 한 편의 칼럼을 작성하면서 AI를 어떻게 얼마나 사용하느냐에 따라 사람의 글쓰기를 AI가 대체하는 것이 아니라 AI를 통해 글쓰기의 효율성과 결과물의 수준을 높이는 것처럼 말이다.
본 자료는 마인드랩 공간 정신건강의학과 이광민 원장이 직접 작성한 기고문으로, 한국룬드벡의 의견과 다를 수 있습니다.