"인공지능 판사? 기술 발달이 던지는 잔인한 질문"

내비게이션, 인공지능 스피커.. 일상으로 들어온 AI AI 개발 목적은 상용화, 기술도 상품가치 범위 벗어나기 힘들어 인간도 잘 모르는 개념을 AI 스스로 학습할 가능성 보여 인공지능 판사가 모든 판결하는 사회? 과연 삶이라고 할 수 있나 국가와 사회는 단순한 기계 아냐, AI에 다 맡길 수는 없을 것

CBS 라디오 '시사자키 정관용입니다'

■ 방 송 : FM 98.1 (18:30~19:55)
■ 방송일 : 2018년 9월 7일 (금)
■ 진 행 : 정관용 (국민대 특임교수)
■ 출 연 : 경희대 이택광 교수 & 소설가 장강명 작가

◇ 정관용> 다양한 사회문화 현상들 잡학하고 박식하게 수다 좀 떨어보는 시간입니다. 격주로 꾸며드리고 있죠. 리앤장의 금요살롱 경희대학교 이택광 교수, 소설가 장강명 씨 어서 오십시오.

◆ 이택광> 안녕하세요.

◆ 장강명> 안녕하세요. 장강명입니다.


◇ 정관용> 올 여름 참 힘들었죠.

◆ 장강명> 힘들었습니다.

◆ 이택광> 정말 더웠습니다.

◇ 정관용> 요즘은 만나면 이래요. 살아남았군요. 생존자들의 모임입니다.

◆ 이택광> 그렇게 뜨겁더니 갑자기 또 차가워졌어요.

◇ 정관용> 세월은 어쩔 수가 없어요.

◆ 장강명> 살다가 태풍 반가운 게 처음이더라고요.

◇ 정관용> 오늘 수다의 주제는 AI, 인공지능인데 가까이 인공지능 쓰고 있는 거 있어요? 저는 먼저 얘기할까요? 내비게이션.

◆ 이택광> 그렇죠. 그것도 AI죠.

◇ 정관용> 아주 친숙하게 쓰고 있어요.

◆ 이택광> 저는 사실 우리 스마트폰에 AI가 많이 들어 있는데 요즘에 AI의 대명사가 된 게 AI 스피커죠. 그것도 약간 상술이지만 어쨌든 AI 스피커인데.

◆ 장강명> 여러 회사에서 많이 나왔더라고요.

◆ 이택광> 저는 스마트폰을 사니까 AI 스피커를 주더라고요.

◆ 장강명> 저는 안 줬는데, 못 받았는데. (웃음)

◆ 이택광> 받으세요. (웃음)

◇ 정관용> 그런데 그 AI 스피커라는 게 특별한 게 뭐 있어요?

◆ 이택광> 말을 하면 말을 알아듣습니다. 안녕하세요 그러면 안녕하세요 그러고 무엇을 도와드리면.

◇ 정관용> 그래서 어디까지 대화가 가능해요?

◆ 이택광> 음악 틀어줘 정도.

◇ 정관용> 그거죠?

◆ 이택광> 음악 틀어줘, 음악 꺼줘. 라디오 틀어줘. 이런 거죠.

◇ 정관용> 그걸 뭐 인공지능이라고 할 수 있어요?

◆ 이택광> 사실 우리나라 AI 장착된 기계는 일상적으로 쓰고 있는 전자기기 중에서 전자밥통이 있습니다.

◇ 정관용> 전기밥솥이 AI예요?

◆ 이택광> 말을 하니까. 아주 저차원적이지만.

◇ 정관용> 말을 하면 AI입니까?

◆ 장강명> 제가 이제 심각하게 받아보면 이 AI가 진짜 인공지능이라는 말이 지금은 좀 마케팅 용어처럼 쓰이는 것 같아요. 그리고 그렇게도 쓸 수 있는 이유 중 하나가 지능이라는 게 뭔지 사실 정의하기가 힘들지 않습니까? 그냥 사람이 가까이 갔는데 자동문 열리는 것도 이것도 인공지능이다라고 우기면 또 뭐라고 참 할 수 없고요.

◇ 정관용> 장 작가께서 지금 AI 로봇이 나오는 소설을 연재하고 있잖아요. 그거 구상해서 연재하기 시작한 이유가 있어요?

◆ 장강명> 제가 좀 로봇이라든가 AI라든가 이런 문제에 관심이 있고요. 저는 사실 그 소설에서는 로봇 얘기라기보다는 그냥 좀 인간 얘기를 해 보고 싶었거든요.

◆ 이택광> 그러니까 사실 인공지능이라고 그러니까 여러 가지 기술. 막연하게 생각할 수도 있겠지만 사실 제가 좀 물어보니까 알고리즘이라고 하더라고요. 쉽게 얘기하면 빅데이터를 기반해서 행동이나 또는 우리가 일반적으로 의식하지 않고 이제 차를 운전하고 가실 때 운전을 반드시 의식하고 하지는 않지 않습니까? 그게 습관적으로 하게 된다는 것. 그런 것들을 프로그래밍해서 이식해서 인간과 비슷한 반응들을 유도하는 그런 것을 통틀어서 AI라고 그러더라고요.

제가 재미있는 이야기를 들었어요. 많은 분들이 이제 AI가 결국 발전하면 인간을 대체하지 않을까 이런 이야기를 하는데 이 전문가한테 제가 여쭤보니까 인간을 대체할 수는 있다. 하지만 아직까지 지금 현재 과학기술로는 인간의 알고리즘이 해명이 안 됐다는 거죠. 인간 뇌의 구조의 알고리즘이 해명이 안 됐기 때문에 아직까지는 인간을 대체할 수 있는 알고리즘을 만들 수는 없다는 거죠. 하지만 만약에 인간의 알고리즘이 완전히 해독이 된다면 만들 수 있다는 건데 인간 뇌의 작용의 알고리즘을 만들 수 없다는 쪽에 많은 비중이 있죠, 사실은 많은 사람들이.

이택광 교수 (사진=시사자키팀)

◆ 장강명> 그런데 저는 제가 인공지능 전문가는 아니지만 그 말씀 들으니까 여러 가지 생각이 드는 게 하나는 애초에 딥러닝이라는 것. 딥러닝이 어떤 머신러닝의 일종이죠. 이게 도입된 것 자체가 인간이 그 규칙을 모르기 때문에 알아서 공부하라고 도입이 된 겁니다. 우리가 바둑을 예로 들면 우리가 바둑이 뭔지 정의 내리기가 참 이렇게 간단하게 내릴 수는 있지만 어떤 바둑의 심오한 개념들. 어디 집이 두텁다라든가 얇다든가 이런 거 가르치기가 힘듭니다. 왜냐하면 우리도 그게 뭔지 정확하게 모르기 때문입니다. 그러니까 그냥 알아서 공부하라라는 식으로 바둑의 기초 규칙만 주고 알파고한테 공부를 하라고 했고.

◇ 정관용> 온갖 기보를 다 공부하도록.

◆ 장강명> 공부를 했더니 알파고는 바둑을 이해하는 것 같고 심지어 인간보다 더 잘 이해하는 것 같은데 여전히 그 상태에서도 우리는 바둑에 대해서 잘 모르거든요. 어디 집이 두텁다든가 얇다든가 형세가 좋다 안 좋다든가. 그러면 인간 뇌에 대해서도 우리가 인간 뇌의 알고리즘을 정확히 모르는 상태에서도 인공지능이 우리가 하는 일을 더 잘할 수 있지도 않을까요. 스스로 학습을 해서.

◇ 정관용> 그렇죠.

◆ 장강명> 그런 식으로 따지면 우리가 인간 뇌가 어떻게 돌아가는지 모르기 때문에 인공지능이 인간을 대체할 수 없다라는 것이 조금 논리적으로 모순이지 않을까요.

◆ 이택광> 그러니까 그런 기능 자체가 발전을 했을 때 우리가 생각. 우리는 지금 상상하는 방식들이 인간의 범위 내에서 상상하잖아요. 금방 장 작가 말한 것처럼 그런 알고리즘이 딥러닝을 통해서 자기발전을 했을 때는 그것은 인간과 상당히 다른 것이 될 가능성이 크다는 거죠. 그것은 인정하는 거죠. 그런데 그건 인간에 유용할지 유용하지 않을지는 알 수 없죠.

◇ 정관용> 두 분 사이에 미묘한 차이가 그러니까 인간이 뭔가를 아직 모르기 때문에라고 이택광 교수는 전제하고 있는데 장강명 작가 이야기는 인간이 만들어놓은 그 모든 것을 인공지능이 다 공부하다 보면 인간의 본질이 뭐라고 규정할 수는 없으나 인간 못지않게 해낼 수 있는 거 아니냐.

◆ 이택광> 그게 강한 인공지능론이죠.

◇ 정관용> 그러니까요.

◆ 이택광> 론이에요, 론.

◇ 정관용> 가능성이 없다?

◆ 이택광> 저 같은 론도 있고 강한 인공지능론도 있는 겁니다. (웃음) 아예 대체불가능하다는 분들도 있고요. 그런데 이제 이건 과학자 내에서도 의견이 갈리는 것이기 때문에 뭐가 뭔지는 사실 좀 시간이 지나봐야 될 것 같습니다.

◇ 정관용> 그러니까 단순한 육체노동을 기계가 다 대체했듯이 이제는 정신노동의 영역에 있어서도 단순한 것부터 점점 인공지능한테 가게 될 거예요.

◆ 이택광> 그렇죠. 상당히 많은 대체를 할 것 같아요.

카카오뱅크는 인공지능 챗봇을 활용해 단순고객상담의 40%를 대체할 것이라고 전망했다 (사진=카카오 제공)

◇ 정관용> 계산하는 거 단순한 서비스 이런 거 다 될 거라는 말이에요. 예컨대 저처럼 이렇게 라디오 방송을 진행하는 거 이런 건 못하겠지, 라고 저는 한때 생각했는데 이것도 해낼지 모르겠다는 생각이 들더라고요. (웃음)

◆ 이택광> 저는 이런 생각을 하는데요. 제가 예전에 읽은 인공지능과 관련된 기사가 있었는데 거기 한 소설가가 기고를 한 겁니다. 그러니까 인공지능이 쓴 소설이 뭘까라는 것이었고 금방 말씀하신 것처럼 소설가가 소설을 쓰지만.

◇ 정관용> 지금 소설가들 위태로워요.

◆ 이택광> 소설이라는 것이 어떻게 쓰여지는지 본인이 알 수는 없잖아요. 다시 말하면 내가 아무리 훌륭한 소설을 썼다고 하더라도 다음 쓰는 작품이 또 훌륭하다는 보장은 안 되지만 이게 알고리즘화 되게 되면 계속 훌륭한 소설을 쓸 수 있다는 거예요.

◇ 정관용> 그러니까요.

◆ 이택광> 동일한 퀄리티를 가진.

◆ 장강명> 아, 무섭네요

◆ 이택광> 그게 무슨 말인가 하면 제가 볼 때는 어디다가 포커스를 맞추냐에 따라서 소설은 달라질 거라고 봐요. 대중성이 강한 소설을 쓰기 위한 알고리즘이라면 정말 대중적인 소설들이 계속 나올 것이고 그렇지 않고 미학적인 소설 쓰고 싶다면 굉장히 미학적인 소설들이 알고리즘에 맞춰서 나올 거라는 거죠.

◇ 정관용> 그러니까요.

◆ 이택광> 그래서 그건 과연 알고리즘이 소설가를 대체할까. 이건 상당히 저는 의문이 된다. 어떤 소설을 우리가 원하느냐.

◇ 정관용> 장강명 작가 어떻게 생각해요?

◆ 장강명> 저는 잘 모르겠습니다. 이런 얘기들을 하는데.

◆ 이택광> 본인 이야기라 꼬리를 사리는데. (웃음)

◆ 장강명> 과학기술에 대해서 뭐가 안 된다고 생각하는 것들은 거의 틀린 예측이라는 거예요. 거의 뭐가 안 될 것이다. 이건 절대 안 된다라는 것은 됐고, 이게 될 거다라고 생각하면 그건 더 쉽게 됐다고 그런 예측들이 있는데 많이들 지금 이제 우리 다 사람이고 어떤 인공지능에 대해서 공포심, 두려움 같은 게 있으니까 막연하게 이거는 못 하겠지라면서 희망사항이죠. 별 근거는 없는 것 같아요. 별 근거는 없고 그냥 이건 못할 거야라고 하지만 알파고하고 이세돌 9단하고 대전하기 직전까지만 해도 그렇게 이세돌 9단이 네 게임을 질 거라고는 상상을 못했습니다.

이세돌 9단과 구글 인공지능(AI) 알파고의 대국 (사진=한국기원 제공)

◆ 이택광> 저는 그래서 굉장히 인간적이라고 지금 우리가 믿어왔던 많은 것들은 대체될 거라고 봐요.

◆ 장강명> 인공지능 AI에 대해서 생각을 하면 할수록 사람의 언어들이 얼마나 모호하고 불완전한가를 얘기를 하게 됩니다. 지능이라는 게 뭔지도 우리가 정확히 모르는 상태로 쓰고 있고 인간이라는 게 뭔가에 대해서도.

◇ 정관용> 인간의 속성, 인간만의 속성이 과연 뭐냐.

◆ 장강명> 잘 모르는 상태로 쓰고 있고 사랑도 그렇습니다. 우리가 아마 강아지 키우는 분들은, 개 키우는 분들은 그 개가 주인을 사랑한다고 할 텐데 어떤 로봇이 그렇게 헌신적으로 사람을 섬기면 우리는 굳이 그거 사랑 아니라고 알고리즘이라고 말할 수 있는, 그렇게 주장하려는 분들이 있을 거예요.

그런데 우리가 그걸 사실 개가 하는 행위랑 로봇이 하는 행위랑 그렇게 구분을 할 수 있을까 저는 좀 회의적이에요. 그때쯤 되면 도대체 사랑이라는 게 뭔가. 이 로봇은 지금 사랑을 하고 있는가, 이 로봇은 지금 사고력이 있는가. 저는 인간성에 대해서도 이게 인공지능이 아마 그냥 단순히 우리 직업을 뺏는다든가 이런 문제를 떠나서 여러 가지 우리가 그냥 막연하게 사용해 왔던 개념들에 대해서 질문들을 좀 잔인하게 던질 것 같아요.

◇ 정관용> 그러니까 철학계에서는 인본주의라는 단어. 이것의 의미와 개념이 달라져야 한다. 이거부터 시작해서 온갖 과제가 쏟아져 나와요. 그러니까 우리 잠깐 우리 셋이 수다를 떨면서 이미 사실 다 나왔던 이야기들을 정리했습니다. 그러면 우리는 뭘 해야 됩니까? 어떻게 해야 하는 거예요? (웃음)

◆ 이택광> (웃음) 저는 사실 걱정을 하지 않는 게 인공지능이 발전을 한다고 했을 때 제가 만약 소설가라면 굉장히 편리해질 것 같아요. 사실 지금 방금 강아지 말씀하셨는데 강아지의 훈련도 알고리즘적으로 이루어지는 거죠. 강아지가 우리를 좋아하는 것들도 강아지가 훈련을 받았기 때문에 좋아하는 거죠. 훈련을 받은 강아지일수록 더 사랑스러워지는 것처럼 AI라는 것도 궁극적으로는 인간의 이익에 맞춰서 인간이 필요로 하는 방식으로 발전할 가능성이. 그렇지 않으면 돈이 없을 거예요. 그걸 개발할 비용이 안 들겠죠. 그런데 일반적으로 걱정하는 것은.

◇ 정관용> 인간에도 도움이 돼야 많이 팔릴 것이고.


◆ 이택광> 그렇죠. 그러니까 지금 AI 스피커 말씀드렸는데 이 정도의 저차원적인 기술로도 사람들이 열광을 하는데 조금 더 좋아진 게 나왔다. 최소한 그래도 리얼리티나 이런 것들이 지금의 인간을 대체할 만한 또는 그것을 아주 완전하지는 않더라도 어느 정도에 근접했을 경우에는 상당히 잘 팔리겠죠. 궁극적으로는 상용화가 목적일 겁니다, AI가 개발된다 하더라도. 여기에서.

◇ 정관용> 돈을 투자하는 사람은 건져야 되니까요.

◆ 이택광> 결국 거기에서 상품화하는 가치를 볼 것이고 저는 그 틀을 벗어나기는 굉장히 힘들 거라고 봐요.


◆ 장강명> 저는 굉장히 걱정합니다. 사실 교수님이 말씀하시는 대로 그렇게 진행될 것 같기는 해요. 어떤 과학기술이라는 게. 그걸 투자하는 사람들 이윤을 노리고 투자를 하고 그걸 사용자들을 편하게 만들어준다는 명목으로 나올 텐데. 예를 들어서 이런 거 한번 생각을 해 볼게요. 우리가 인간 판사보다 AI 판사가 더 판결을 잘 내리니까 판결을 전부 인공지능한테 아웃소싱을 하자. 그래서 우리의 어떤 사회적, 사회 중대 사안을 포함해서 결정할 수 있는 사안들을 전부 AI가 결정하게 하는 어떤 사회. 그리고 그 판사는 늘 공명정대한 인공지능 판사, 공명정대한 판결을 내리는 그런 사회에서 살 때 과연 우리가 이게 삶이라고 할 수 있을까요.

저는 이런 식으로 이게 이제 인본주의의 해체와 상관이 있다는 건데 인공지능이 우리보다 더 유능한 일을 더 잘한다고 해서 무조건 인공지능한테 우리의 중요한 일들을 맡겼을 때 어느 순간 이건 인간이 아니고 이건 삶이 아니라고 하는 그런 시점이 올 거라고 생각합니다. 인생이라는 게 굉장히 복잡한 개념입니다.

장강명 작가 (사진=시사자키팀)

◇ 정관용> 그러니까 장강명 작가는 인간의 필요와 인간에게 도움을 주는 인공지능이 발전해 나가는데 어느 수준선에서는 제한을 둬야 한다?

◆ 장강명> 그 제한이라는 게 굉장히 여러 단계가 있을 텐데 일단은 우리 노동시장을 교란시키는 제1단계를 지금 보고 있겠죠. 자율운행차가 들어오면 대리기사라든가 버스기사라든가 택시기사 전부 무너지고 이게 우리가 원하는 미래인가 이것도 따져봐야겠고 조금 더 심오한 데로 가면 우리가 원하는 삶이 편한 삶인가? 이걸 좀 따져봐야 됩니다. 우리는 그냥 편한 삶을 살고 싶어하지 않습니다. 내 삶에 대해서 통제력을 갖고 있기를 원합니다.

◇ 정관용> 주체적인 삶.

◆ 장강명> 네. 설사 실수를 해서 고통을 받게 되더라도 어떤 주체성이 있어야 그게 인간다운 삶이라고 저는 생각을 하고 인공지능 논의가 이걸 굉장히 손쉽게 뚫고 들어오고 우리한테서 주체성, 통제력을 빼앗아 갈 거라고 생각을 해요. 왜냐하면 너무 완벽하고 편하기 때문입니다. 이걸 어떻게 막아야 될까. 사실 막을 방법도 잘 보이지 않거든요.

◇ 정관용> 그러나 이 논의는 해야 한다.

◆ 장강명> 이 논의는 해야 됩니다.

◆ 이택광> 저는 그런데 막을 거라고 생각을 해요. 왜냐하면.

◇ 정관용> 막아낼 수 있다?

◆ 이택광> 저는 이제 법과 관련해서 예를 들어 인공지능이 사법부를 대체한다거나 판사나 변호사를 이제 인공지능을 통해서 할 것이라는 이런 이야기들은 너무 유토피아적인 이야기고 왜냐하면 이런 상상력의 뿌리는 사실 공리주의죠. 국가를 기계로 바라보는 아주 완벽하게 잘 작동하는 기계로 생각했는데 사실 당장 우리가 보더라도 국가라는 것은 그런 단순 기계가 아니죠. 정치라는 것이 들어가 있는 것이고.

그래서 오히려 사회적 관계에 의해서 이것이 규정될 거라고 생각을 해요. 물론 장 작가님이 우려하는 것들은 이러한 정치적인 부분이 거세당하는데 AI 논리가 동원될 수 있죠. 왜냐하면 편리하니까 우리는 정치 같은 거 버리고 AI에 다 맡기자 하는 또 다른 정치적 입장이 나올 수가 있는데 과연 그게 우리들에게는 이롭지 않을 거라고 생각하는 거기에는 동의를 하는데 그래서 쉽지는 않을 거라는 거예요.


◇ 정관용> 10년, 20년 안에는 그래도 완전히 대체는 어려울 것이고 의사나 판사나 변호사나 옆에 AI 로봇 한 명씩, 한 대씩 한 명이라고 그래야 돼요, 한 대라고 해야 돼요. (웃음) 아직까지도 AI 로봇 한 대씩을 두고 도움을 받는 그런 정도까지만 우리 일단 생각해 봅시다.

◆ 이택광> 더 이상은 복잡하네요.

◆ 장강명> 그게 인간 아닙니까, 여기까지 생각하는 게.

◇ 정관용> 그럴 수 있는 능력이 있는 게 인간이에요.

◆ 이택광> 맞아요. 멈출 수 있는 능력.

◇ 정관용> 경희대 이택광 교수, 소설가 장강명 씨, 오늘도 수고하셨습니다. 고맙습니다.

◆ 이택광> 감사합니다.

◆ 장강명> 고맙습니다.

많이 본 뉴스