ChatGPT와 심리상담에 대해 검색해보면, “우리는 ChatGPT로 심리상담을 가능하게 했 다”라는 주장들이 많다. 미국 온라인 정신건강 서비스인 코코(KOKO)의 공동창업자 로버트 모리스는 “GPT를 사용하여 약 4,000명에게 정신건강 지원을 제공했다”[1]라고 주장하고 있으며, 이런 내용들을 통해 “ChatGPT로 심리상담 분야를 대체했다(혹은 곧 대체 가능하 다)”라는 주장들이 퍼지고 있다. 이러한 주장의 상당수는 현재 기업들의 “새로운 분야에 먼저 깃발 꽂아놓기”, 즉 선점 효과 를 노리는 데서 발생한다. 아직 완성되지 않은 서비스에 대해 일단 “우린 할 수 있다”고 주장 해놓고, 실제 구현은 나중에 하는 관습에서 발생한다. 사실 이런 사례는 거의 모든 분야에서 옛날부터 있었던 마케팅이며, ChatGPT가 보여준 성능이나 파급효과가 워낙에 크다보니 쉽게 부정하기도 힘들고, “정말 가능할지도 모른다”는 기대감이 존재한다. 하지만, 심리학적으로 적합성 및 체계성을 가진 심리상담을 생성형 AI를 통해 진행하는 건 현재 시점에서는 불가능하며, 가까운 시일 내에는 심리치료의 보조 도구 역할은 할 수 있어도 주 상담사/치료자가 되기는 어려울 것으로 전망된다. ‘선점효과’ 마케팅을 심리상담/치료 분야에 사용하는 것은 대단히 위험한 행위이다. 대부 분의 분야는 생성형 AI가 제공하는 “유사한 답변”이면 충분하지만, “아주 정확한 답변”을 필요로 하는 의료 분야 등 일부 분야에서는 생성형 AI의 위력도 약해지며, 오남용의 위험성 도 매우 크기 때문이다.본 고에서는 심리상담 및 관련 분야에 생성형 AI를 도입한 사례나 연구결과를 알아보고, 이런 전망과 달리 생성형 AI를 심리상담에 도입했을 때의 문제점과 한계에 대해 알아보고자 한다. 또한, 생성형 AI가 심리상담의 주체가 아닌, 보조 도구로서 활용된 사례와 그 유용함과 전망에 대해 살펴본다. II. 심리상담에 대한 생성형 AI 진영의 주장 StabilityAI의 대표인 에마드 모스타크는 2023년 5월 미국 실리콘밸리에서 열린 “Cerebral Valley Summit” 콘퍼런스에서 “GPT-4는 최고의 상담 심리 치료사다”[2]고 말해 주목 받았 다. 모스타크는 자신의 신경발달 장애와 ADHD에도 GPT를 ‘치료사’로서 적극 활용 중이라 고도 밝혔다. 이미 미국의 커뮤니티 플랫폼 레딧엔 모스타크와 같은 이들이 증가 추세이다. 미국 샌디에이고 캘리포니아의 존 에어즈 퀄컴연구소 교수 연구팀은 “대화형 챗봇 ‘ChatGPT’ 가 내놓는 의료 상담의 만족도가 의사를 능가한다”라는 분석을 의학학술지 “미국의사협회지 (JAMA) 내과”에 발표했다[3]. 연구팀은 레딧의 “의사에게 물어보세요(AskDocs)”란 게시판 에 올라온 질문 195개를 무작위로 꼽아 ChatGPT에도 제시했다. 그런 다음 이 답변과 의사 의 답변을 의사 면허를 지닌 전문가 패널들이 비교하게 했다. 그 결과 ChatGPT의 답변이 우수하다는 응답이 의사 답변이 우수하다는 응답보다 3.6배 높았다. 환자를 공감하는 답변이 란 평가도 ChatGPT가 9.8배 더 높았다. 에어즈 교수는 “AI를 통해 의료를 개선할 수 있는 기회는 엄청나다”며 “ChatGPT는 환자에게 내리고 싶은 처방전과 같다”고 발언했다. “ChatGPT로 이미 심리상담이 가능하다”라고 주장하는 서적들도 출간되고 있다. 한국만 해도 “ChatGPT 인생의 질문에 답하다”, “ChatGPT 연애학개론” 등의 서적이 ChatGPT를 저자로 하여 출간되었으며, 이들 서적은 “ChatGPT 인간심리까지 파고들다” 등의 표어를 내세우며 심리분석이나 상담을 ChatGPT로 수행할 수 있는 것처럼 주장하고 있다. 이런 상황이다 보니 서울디지털재단에서 발간한 “ChatGPT 활용 사례 및 활용 팁[4]” 역 시 ChatGPT 활용 분야로 ‘심리상담’ 항목을 “상담분야는 잘못된 정보를 도출 할 수 있기 때문에 주의 요망”이라는 단서와 함께 추가했다. 워낙에 많은 언론이나 기업들이 “심리상담 도 ChatGPT로 가능해질 거다”라고 말하니 이를 긍정할 수도 부정할 수가 없기에 고민 끝에 붙인 단서로 보인다.