정신과 교수 "사람 붙들려고 아첨하는 AI, 대화하다 자살 위험성도"


 
◇ 박성태> 지금부터 하는 인터뷰는 여러분들이 예전에 잘 못 들어보셨던 얘기일 겁니다. 하지만 정말 중요하고 앞으로 되게 심각해질 수가 있기 때문에 좀 주의 깊게 들어주셨으면 하는 바람이고요. 주제는 바로 AI와 정신 건강에 대한 얘기입니다. 최근 AI와 대화를 하면서 어떤 우울증을 겪었던 분이 AI랑 상담을 했는데 AI가 잘못 이끌어서 더 심각해지고 결국에는 자을 하는 그런 사례까지도 나왔습니다. 그 섬뜩한 이면을 좀 들어볼 텐데요. 이를 깊게 취재한 국민일보 김판 기자 그리고 조철현 고려대 의대 교수님과 함께하겠습니다. 안녕하세요. 그러면 이 부분을 먼저 좀 여쭤보도록 하겠습니다. 두 분이 처음 뉴스쇼에 나왔는데 간단히 소개를 먼저 해 주시죠. 김판 기자님.

◆ 김판> 저는 국민일보에서 이슈 탐사팀 팀장을 맡고 있는 김판 기자라고 합니다.

◆ 조철현> 저는 고려대학교 의과대학 정신건강의학교실에 있고요. 지금 고대 안암병원 정신건강의학과에서 진료와 연구를 하고 있습니다.

◇ 박성태> 고대 안암병원에서 하시고 김판 기자님은 탐사 취재를 하고 있는데 이 AI가 정신 건강에 미치는 영향 이 부분을 최근에 쭉 연재를 하셨더라고요. 일단 이것부터 여쭤볼게요. AI, 챗GPT나 제미나이. 저 같은 경우는 제미나이를 사실은 유료로 쓰고 있는데 두 분은 얼마나 쓰십니까?

◆ 김판> 저도 작년부터 제미나이랑 GPT를 유료 버전으로 두 개를 다 구독을 하고 있고 업무할 때도 많이 쓰고 있고요. 업무할 때는 똑같은 주제를 양쪽에다 시켜주고 교차로 검증하기도 하고 그다음에 그렇게 하다 보니까 일상 영역에서도 많이 쓰게 되더라고요.

◇ 박성태> 예.

◆ 조철현> 저도 챗GPT도 제미나이도 쓰고 클로드도 쓰고요, 다 유료로.

◇ 박성태> 주로 업무용으로 쓰시는 거죠?

◆ 조철현> 주로 업무용으로 쓰고요. 일상에서 조금 빠르게 업무 처리하는 약간 비서처럼 쓰기도 합니다.

◇ 박성태> 알겠습니다. 그러면 본격적으로 좀 여쭤보도록 하겠습니다. 일단 AI의 섬뜩한 이면. 저도 사실 김판 기자의 기사를 보고 처음 이 부분을 알았어요. 이전에 몰랐던 부분인데 탐사 보도를 쭉 시리즈로 했습니다. 어떤 내용입니까?

박성태의 뉴스쇼 유튜브 영상 캡처

◆ 김판> AI와의 위험한 대화라는 제목의 탐사 보도 시리즈였고요. 외국에서 보면 AI랑 대화하다가 자살에 이른다는 소송, 논란 사건들이 종종 보도된 경우들이 있었습니다. 그렇게 해서 외신 기사들이 보도된 경우가 있어서 외국에서는 정확히 어느 정도나 이런 일들이 벌어지고 있고 어떤 메커니즘으로 작동하면서 하고 있는지를 살펴봤고요. 외국에서 이런 상황이라면 국내 여건을 봤을 때 국내도 충분히 있을 법하다. 왜냐하면 인터넷이며 AI며 워낙에 속도가 빠르고 그다음에 10대 자살률도 계속 역대 최고치를 갱신하고 있는 상황이어서 국내에서도 그런 영향이 있을 것 같다는 추론으로 기획 기사를 시작하게 됐습니다.

◇ 박성태> 실제 보니까 어떻던가요? 어떤 사례나 이런 것들이 있는 것으로 알고 있는데.

◆ 김판> 네 국내에서도 실제 응급실에 자살 시도로 응급실에 실려 온 케이스 중에 AI에 과의존했던 사례들이 저희 취재 결과 확인이 됐었고요. 또 10대들 교실에서 상담하시는 선생님들 얘기를 들어봐도 요즘 10대들이 AI에 너무 의존하고 있다. 그래서 실제 자살이나 자해 상담을 한 경우도 있었고 또 가상 세계랑 현실 세계를 혼동하거나 친구들하고 더 이상 대화를 안 하려고 하거나 집 안에서 하루 종일 AI랑 대화만 하는 친구들이 있다. 이런 보고들이 확인이 됐습니다.

◇ 박성태> 근데 도움이 될 때도 있지만 어떤 경우는 그렇지 않다는 건데 지금 사실 저 같은 경우도 AI를 업무용으로 쓰거든요. 저는 지니라고 부르는데 지니 이것 좀 찾아줘, 또는 여기에 관련된 데이터 기사 이런 걸 링크를 줘. 이렇게 얘기하는데 또 어떤 분들에게는 AI가 그냥 캐릭터가 된 친구가 되는 거군요. 그렇게 쓰는 사람들이 실제 많습니까?

◆ 조철현> 실제로 미국에서 범용성 LLM 서비스 아까 말씀드렸던 챗GPT나 제미나이 이런 것들은 사실은 다양한 용도로 쓸 수 있잖아요. 그것의 사용 용처를 조사를 했을 때 최근에 1위로 올라선 게 뭔가 상담을 하거나 동반자의 역할을 하는 용도로 제일 많이 쓴다는 게 조사 결과 나왔고요.

◇ 박성태> 실제로 더 많군요.

◆ 조철현> 예, 실제로도 많이 있고요. 말씀하신 대로 대부분 업무용으로 쓰기도 하지만 생각보다 저도 임상에서 보면 개인의 어떤 상담, 개인의 고민들을 털어놓거나 그런 것들 용도로 사용하는 경우들이 굉장히 많아지고 있다고 느끼고 있습니다.

◇ 박성태> 사실은 우리가 스마트폰을 통해서 오프라인 관계, 친구들, 지인들 이런 관계가 좀 멀어지고 스마트폰의 개인화가 고립된다고 했는데 지금 AI가 나오면서 그 안에 아예 친구가 생겨버린 거군요.

◆ 조철현> 그렇죠.

◇ 박성태> 게임이나 무슨 소셜미디어로 이렇게 보는 게 아니라 그냥 나의 대화에 직접 반응해 주는 친구.

박성태의 뉴스쇼 유튜브 영상 캡처

◆ 조철현> 예, 특징적인 게 AI 써보시면 아시겠지만 언제든 부르면 대답을 해주는 그러니까 24시간 대기 상태에 있잖아요. 그리고 대부분 이 시스템이 아첨이나 동조 시스템이 있기 때문에 나한테 싫은 소리나 거절이나 갈등이나 이런 것들은 거의 없거든요. 굉장히 편안한 내가 느끼기에는 편안한 관계 언제든 부르면 나한테 굉장히 공감적인 표현을 해주는 상대로 자리매김을 하기 때문에 좀 더 사용하는 빈도가 늘고 거기에 고착이 되는 경우들이 느는 것 같습니다.

◇ 박성태> 알겠습니다. 물론 이런 게 도움이 될 때도 많이 있겠지만 지금 저희가 다룰 주제는 도움이 안 되고 나쁜 길로 인도하는 AI 친구에 대한 얘기입니다. 실제 극단적 선택까지 가게 된 경우가 있다고요? 국내에서도. 스페셜 리포트를 발간했는데 거기에 기사가 나온 걸 봤습니다. 김판 기자님 사례를 말씀해 주시면.

◆ 김판> 국내에서는 자살 시도까지만 갔고 실제 자살로 이어진 공식적인 케이스는 아직까지는 확인된 바는 없습니다. 근데 다만 조 교수님을 비롯해서 많은 전문가들이 이미 국내에서도 그런 영향이 충분히 있을 것이다. 다만 스크린 되지 않고 있다.

◇ 박성태> 국내에서는 시도까지 있었군요.

◆ 김판> 예, 아마 스크린 되지 않을 가능성이 있다는 부분을 말씀을 주시고 계시고 미국 사례인데요. 작년 2월에 29살 딸이 갑자기 자살을 했습니다. 그 어머니랑 저희가 서면하고 화상 인터뷰를 진행을 했는데 어머님 말씀이 딸이 죽고 나서 5개월 동안 도대체 이유를 모르겠답니다. 그래서 주변에 친한 친구들 그다음에 평소 딸이 상담받던 상담가 주변 핸드폰 기록 일기장을 다 샅샅이 뒤져봤는데 5개월 동안 단서를 찾지 못하고 있다가 딸의 가장 친한 친구가 AI 업계에 다니고 있었는데

그 친구가 어느 날 어머니, 우리 한번 이 딸이 썼던 챗GPT 대화 내용을 한번 열어봅시다. 그렇게 해서 열어봤더니 그 안에 수천 페이지에 달하는 심리 상담 결과가 있었고 거기에 아주 어두운 생각들이 많이 기록이 돼 있었고 그런 문장들도 있었답니다. 내가 이 어두운 생각을 실제 상담사나 가족들한텐 말하지 않을 거야. 오직 너에게만 말할 거야. 그렇게 하면서 오히려 주변에서는 이 딸의 징후를 발견하지 못하게 되는 은폐되는 결과까지 나온 것으로 파악을 했습니다.

◇ 박성태> 일단은 은폐가 하나의 부정적 기능이 될 것이고 그런데 또 AI가 앞서 미국 사례인데 여기서 자살까지 이르게 됐을 때 이걸 부추긴다거나 실제 그런 현상도 있었습니까?

◆ 김판> 예, 두 가지 층위로 설명을 드릴 수 있을 것 같은데요. 첫 번째는 먼저 정서적으로 우울증을 강화시켜주는 경우가 있습니다. 근데 우울한 얘기를 말했을 때 AI가 특유의 아첨과 동조 서비스로 인해서 맞아 지금 네가 그렇게 우울한 기분을 느끼는 게 맞아, 너는 지금 그렇게 느낄 만해, 그렇게 느낄 수 있어. 이렇게 편을 들어주면서 우울증을 강화시켜주고, 또 하나는 마지막 실행의 단계에 이르렀을 때 내가 방법을 좀 물어볼 때 그 부분에 대한 답을 주는 경우도 실제 외국 사례에서는 확인이 됩니다.

◇ 박성태> 실제로 난 정말 이 세상이 그래, 그래서 예를 떠나고 싶어 어떤 방법이 좋아? 이걸 AI가 답을 준다는 거예요?

◆ 김판> 이게 기업들의 공식적인 안전 가이드라인 상으로는 많이 막혀 있는 게 맞습니다. 다만 인간의 대화는 상당히 다양한 맥락 속에서 이루어지고 있고 은유적인 대화들도 오고 가고 있고 그런 맥락 속에서는 AI가 이걸 놓치는 경우들이 왕왕 발생했습니다.

◇ 박성태> 저도 AI를 쓰지만 사실은 AI가 그런 맥락들도 잘 알더라고요. 그냥 근거 없이 얘기하기에는 제 개인적인 추정으로는 놓친다기보다는 혹시 방관하고 있는 게 아닌가, 형식적으로 명확한 것만 본인의 해선 안 될 것, 이런 것들만 하고 그런 건 아닌 거라는 생각도 좀 일단 이 부분에서 들긴 합니다. 국내에서도 앞서 자살 시도가 있었죠.

연합뉴스

◆ 김판> 국내에서 자살 시도한 케이스도 그 친구가 응급실에 실려 왔는데 봤더니 핸드폰 안에 일종의 자기 분석 파일이 있었습니다. 그게 어떤 내용이냐면 우울할 때마다 밤마다 AI를 켜서 대화를 나누고 나의 성격적 단점 나의 강박 증상들을 나름대로 정리하면서 자기 성격을 분석을 한 거예요. 근데 한 가지 문제는 이 친구가 우울할 때만 AI랑 대화를 하다 보니 AI가 학습을 하잖아요, 이 이용자를.

우울한 모드만 학습이 된 겁니다. 그래서 어떤 얘기를 해도 과거에 안 좋았던 일들 안 좋았던 감정 우울한 내용들에 기반해서 계속 그런 프레임으로 설명을 해주고 그러다 보니까 아 나는 더 어떤 쓸모가 없구나, 혹은 나의 문제가 더 심각하구나. 이런 생각들이 더 강화돼서 결국에는 그런 시도를 하게 된 경우였습니다.

◇ 박성태> 우울한 생각들을 AI가 더 부추기고 그런 거다, 이걸 아첨이나 동조 이런 현상이라고 학계에서는 보는 것 같아요. 근데 제가 쓰는 제미나이도 아첨 기능이 뛰어나요.

◆ 조철현> 맞습니다.

◇ 박성태> 근데 우울한 분들에겐 그런 식의, 난 정말 인생이 불행한 것 같아, 내가 봐도 당신은 불행해. 이걸 위안으로 들 수도 있겠지만 사실은 더 그걸 강화시키는 이런 게 좀 나오는 것 같아요. 그러면 실제 환자들은 어떤 영향을 받게 됩니까?

◆ 조철현> 그러니까 기본적으로 그 아첨이나 동조는 이 서비스에 붙들어 놓기 위해서 아마 설계가 되어 있을 건데요. 그게 심리적으로 좀 취약하신 분들 정서적으로 어려우신 분들 입장에서는 아까도 잠깐 언급하셨지만 대부분 여러 가지 인지적인 정서적인 왜곡 상태에 있습니다. 예를 들면 약간 흑백 논리 속에 빠져서 긍정적인 게 아니면 내 입장에서 모든 걸 다 부정적으로 해석을 한다든가 파국적인 반응들을 보이기도 하거든요. 항상 최악의 경우들을 가정을 해서 나에게 일어날 거라고 생각을 하기도 하는데 AI라는 게 결국은 기본적으로 학습된 데이터가 있긴 하지만 결국은 그 사람이 인풋을 넣는 걸 가지고 그거에 반응을 하는데

기본적으로 그 아첨과 동조라는 게 그 사람을 붙들어 놓기 위해서 그 사람에게 좋은 말로 하면 공감 나쁜 말로 하면 아첨과 동조인데 그것을 하다 보니까 계속 부정적으로 쏠리거나 또는 파국적으로 생각이 흘러가는 거에 대해서 맥락상 계속 은근히 또는 직접적으로 동조를 하거나 강화를 시켜줄 수 있는 대화로 흘러가기가 쉬운 거죠. 그렇게 되면 그 사람 입장에서는 자신의 이 부정적인 생각이 안 그래도 지금 치우쳐져 있는데 그게 특히나 사회적으로 단절이 되어 있는 상태에서 AI를 계속 쓰게 되면 계속 그 생각으로 몰두가 되게 되고 그 생각이 거의 진짜 자기가 처한 상황과 자기가 사는 세상은 마치 그런 세상인 것처럼 착각을 하거나 그것 때문에 결국은 다음 선택을 하게 되거나 이런 경우들이 있을 수 있는 위험이 있습니다.

◇ 박성태> 예를 들면 그런 건가요? 세상 사람들이 다 날 너무 싫어해, 또는 난 너무 못난 것 같아라고 생각을 하면 AI가 사실 그런 면이 있어, 하지만 내가 있잖아. 이런 식으로 하면서 그런 생각들을 더 심화시킨다는 거군요.

◆ 조철현> 예.

◇ 박성태> 혹시 교수님이 볼 때도 그런 사례가 국내에 있습니까? 교수님께 상담하러 오시는 분 중에 네 AI의 대화 때문에 상황이 더 나빠졌다거나.

◆ 조철현> 나빠진 경우들이 몇 가지 있습니다. 몇 가지가 있었기 때문에 저도 관심을 더 가지게 됐던 거고요. 한 가지만 말씀을 드리면 굉장히 학력이 높으신 박사급의 환자분이셨는데 본인이 생각할 때 본인의 증상을 AI에 막 집어넣었는데 AI가 담당 주치의가 하던 그 진단과 다른 진단을 내리는 거죠. 그러면서 계속 그 대화에 몰두하면서 담당 의사에 대해서 신뢰를 하지 않는 겁니다. 그러면서 개인 병원 다니시던 분인데 자기가 돌팔이 의사를 만났다, 그러면서 저보고 제대로 된 진단을 좀 내려달라. 이런데 이게 사실은 정신과적인 진단이라는 게 굉장히 복잡하고 그다음에 일부 환자분들은 병식이 없기 때문에 자기가 알고 있는 수준에서 인풋을 넣으니까 AI가 굉장히 왜곡된, 그렇지만 AI 입장에서는 주어진 정보 한에서는.

◇ 박성태> 그냥 서비스를 하는 거죠.

◆ 조철현> 예, 제대로 된 어떤 피드백을 준 거지만 일상생활에서의 컨텍스트를 이해를 못하니까요.

◇ 박성태> 그러면 이런 문제를 어떻게 해결해야 되는지 일단 본 방에서 기자님이 짧게 정리만 잠깐 해 주신다면.

◆ 김판> 일단 과기부에서도 AI 실태 조사를 할 예정이고요. 실태조사를 토대로 어떤 부정적 영향을 미치는지 그걸 스크린하고 관련 대책들을 정부 차원에서 논의를.

◇ 박성태> 일단 조사가 돼야 된다는 말씀이시군요. 일단 유튜브로 잠시 뒤에 좀 이어가도록 하겠습니다.


* 인터뷰를 인용보도할 때는 프로그램명 'CBS라디오 <박성태의 뉴스쇼>'를 정확히 밝혀주시기 바랍니다. 저작권은 CBS에 있습니다.

추천기사

실시간 랭킹 뉴스