■ 진행 : 김현정 앵커
■ 대담 : 김승모 기자 (CBS 심층취재팀)
◇김현정> 뉴스 속으로 훅 파고드는 시간, 훅!뉴스. CBS 심층취재팀 김승모 기자 나와 있습니다. 오늘 심층취재팀에서 준비한 뉴스, 포털과 AI 얘기네요?
◆김승모> 지난주 정치권에서 ‘5공화국 시절의 보도 지침이 되살아났다’ 이런 발언이 나왔는데요. 먼저 주호영 국민의힘 원내대표 발언 들어보시죠.
[녹취 : 주호영 국민의힘 원내대표]
"즉석에서 포털 간부를 불러들이고 뉴스 배열을 바꾸라고 할 정도까지 할지는 차마 몰랐습니다. 5공 시절의 보도 지침이 되살아난 듯한 그런 느낌을 받았습니다"
◇김현정> 윤영찬 더불어민주당 의원이 인터넷 포털 ‘다음’의 뉴스 배열에 불만을 품고 보좌진에게 '강력히 항의하라', '너무한다. 들어오라 하세요'라고 보낸 SNS 메시지 내용이 언론에 공개되자 야당이 반발하고 있는 거죠.
◆김승모> 윤영찬 의원 메시지를 놓고 '뉴스 편집에 개입했다', '포털 장악이다'라는 논란이 불거진 건데요. 포털 측은 AI 알고리즘으로 뉴스 추천 방식을 바꿨다고 하지만, 10년도 더 된 포털 뉴스 외압 논란이 다시 불거진 겁니다.
◆김승모> 이번 주 훅뉴스에서는 포털 사이트의 뉴스 편집 방식을 구체적으로 살펴볼 건데요, AI 인공지능 알고리즘으로 개입의 여지가 전혀 없는지, 그래도 어떤 가능성들은 있는지 샅샅이 짚어보도록 하겠습니다.
◇김현정> 진짜 개입할 여지가 없는 건지 꼼꼼히 살펴본 건데요. 우선 포털은 AI 알고리즘으로 뉴스 추천을 받고 편집하기 때문에 사람이 개입할 여지가 없다고 하는데, 무슨 설명인지 어려워요. 그것부터 친절한 설명이 필요할 것 같아요.
◆김승모> 우선 윤영찬 의원이 소환했던 다음 카카오 측으로부터 설명을 들어봤습니다. 포털 사이트 다음의 경우 하루 평균 약 3만여개의 기사가 송고된다고 해요. 알고리즘은 컴퓨터 상의 연산 규칙, 문제처리 규칙을 말하는데요, 인공지능을 갖춘 알고리즘이 3만여 개의 기사 가운데 일단 중복됐거나 기자 이름이 없는 기사, 광고성, 선정적 기사 등을 걸러 내 3천여 개 기사를 선정한다고 합니다.
◇김현정> 3만여 개가 들어와서 배열되긴 하지만, 그걸 메인 화면으로 뽑기 전에 선정하는 첫 단계는, 기자 이름 없거나 광고성이거나 선정적이면 안 된다는 거죠?
◆김승모> 일종의 풀이라고 보면 될 거 같아요. 그 가운데서도 일부를, 이용자의 관심사와 시의성 등을 고려해 실시간으로 다음 뉴스 메인에 노출합니다. 전체 이용자들이 많이 읽은 뉴스, 나와 비슷한 관심사를 가진 이용자들이 많이 본 뉴스가 추천 대상으로 고려되는 거죠.
◇김현정> 그렇게 되면 포털 사이트가 임의로 뉴스를 올리고 내릴 수 없다는 건가요?
◆김승모> 이용자마다 행동 패턴이 다르니 뉴스도 그에 맞춰 노출되는 것일 뿐이라는 입장입니다. 또 이미 읽었거나 오래된 기사는 메인 화면에서 사라지고 다른 기사들이 노출되는데, 그 모든 것들이 자동화된 알고리즘이 편집하고 있어 사람의 의도적 개입은 없다는 거죠. 이런 과정은 다음 카카오 측이 공개해 전문가 검증까지 거쳤다고 하고요. 또다른 포털 사이트 네이버도 마찬가지 답을 내놓는데요, 네이버를 운영하는 NHN 관계자의 말입니다.
[녹취 : 네이버 관계자]
"'알고리즘도 사람이 만드는 거 아니야?' 라고 하는데, 사람이 만들지만 그게 식으로 되어있고 복잡하지만 정교하게 되어 있는 건데. 그 중간에서 개발자 한 명이 '이런 성향의 이런 걸 넣자' 이렇게 해서는 할 수 있는 상황은 아니라고 알고 있습니다."
◇김현정> 편집자가 이걸 넣어야지 한다고 해서, 그럴 수가 없다는 거예요?
◇김현정> 이용자의 관심사를 반영한다고 했잖아요. 그런데 만약 '나는 로그인도 안 하고 접속했다'고 하면, 그러면 아무런 정보가 없는 건데. 그럼 어떻게 뉴스 추천이 이뤄져요?
◆김승모> 업계에서는 이용자 정보가 없는 상황에서의 분석을 '콜드 스타트', 냉담한 시작이라고 부르더라고요. 예를 들어 휴대전화를 새로 개통해 처음 포털 사이트를 열어보는 상황이 있을 것인데요, 이럴 때는 모바일로 접속한 사람들의 취향, 그 시간대에 접속한 사람들의 기호 등 어떤 실마리라도 찾아서 이용자와 비슷할 법한 그룹들의 패턴을 반영한다고 합니다.
◇김현정> 그룹 패턴을 반영한다?
◆김승모> 그렇다 보니, 비교적 맞춤형 컨텐츠 추천이 이뤄진다는 유튜브와 달리, 포털은 큰 틀에서 추천된 뉴스들이 비슷해 보이는 측면도 있다라는 것이죠.
◇김현정> 포털이 이렇게 AI 알고리즘을 강조하지만, 반론도 여전하죠. 심지어 다음을 창업한 이재웅 전 쏘카 대표도 ‘AI 시스템이니까 중립적이라고 답하는 것은 잘못된 얘기’라고 했잖아요.
◆김승모> 전문가 사이에서도 의견이 엇갈리는 지점들은 있습니다. 예를 들어, 그 인공지능 알고리즘을 설계할 때, 그때는 어떻게든 설계자의 의도가 반영될 수밖에 없지 않느냐는 의견도 있어요. 이것은 국민대 소프트웨어융합대학원 윤종영 교수의 말로 들어보시죠.
[녹취 : 윤종영 교수]
"이게 아무리 AI 알고리즘이라고 해도, 결국 기술이기 때문에 사람이 관여하는게 절대로 불가능하다고 말할 수는 없구요. 구글 검색 같은 경우는 광고 수익 극대화에 목적을 두고 있는 그런 쪽으로 알고리즘을 당연히 만들 것이기 때문에, 미디어에서도 그런 알고리즘이 있을 것이고. 만든 것이 사람이기 때문에 관여하는 게 절대로 불가능하다고 말할 수는 없는 거죠."
◇김현정> 알고리즘을 짜는 사람이 있을 거 아니냐. 그 개발자 기획자의 의도나 가치관은 들어가는 거 아니냐는 거네요.
◆김승모> 그렇죠. 또 뉴스 역시 포털 입장에서는 상품이기 때문에, 해당 사이트로 더 많은 이용자들이 유입되고 머물 수 있도록, 일종의 비즈니스 관점이죠. 그렇게 편집이 이뤄질 것이고요. 이런 것들을 종합해 알고리즘을 설계할 수밖에 없다는 얘기죠.
◇김현정> 그럼 뉴스 편집에 사람의 관여는 없다는 전혀 없다는 말은 틀린 거네요??
◆김승모> 개입과 관여를 두고 포털과, 그 밖에서 의심을 품는 이들의 생각이 다른 것이죠. 취재해보니 포털과 미디어 전문가들이 사용하는 '중립', '공정'이라는 단어가 의미에서 차이를 보이고 있다는 점도 확인할 수 있었습니다. 먼저 다음 카카오 측의 설명부터 들어보시죠.
[녹취 : 카카오 관계자]
"포털에서 지금까지 뉴스배치라고 하는 것은 이것이 가치중립적이냐 편향적이냐의 문제가 아니라 외부의 권력자나 압력, 특정인의 이해관계에 따라서 뉴스배치나 편집이 임의로 조작되거나 변경될 수 있는 가능성이 있지 않느냐, 이것을 없애기 위한 것에 초점이 맞춰져 왔었어요."
◇김현정> 편집에 개입할 수 없도록 하는 데 초점을 맞췄다는 얘깁니다.
[녹취 : 송경재 교수]
"포털 측에서는 '도저히 사람이 못하겠다 기계적으로 하겠다'라고 하면서 찾은 대안이 바로 인공지능 알고리즘이라는 대안이에요. 그러면서 인공지능 알고리즘은 아주 중립적이고 객관적이고 공정하고 좋은 것이라고 선전을 했죠. 하지만 인공지능이라는 것 자체가 그렇게 가치중립적이고 객관적이고 공정하지 않다는 건 많은 연구 결과들이 지금 나오고 있거든요."
◇김현정> 인공지능 자체가 객관적이고 공정하지 않다?
◆김승모> 컴퓨터 공학을 연구하는 쪽에서는 인간이 개입하지 않고 알고리즘만으로 작동되는 상태가 객관성, 공정성의 중요 요소입니다. 인간의 주관적 요소를 줄이자는 것이지만, 그 결과가 편향된다 해도 공정하다, 객관적이다 말할 수 있을까요? 미디어 전문가들은 그렇지 않다고 보는 겁니다.
◇김현정> 컴퓨터 공학자냐, 미디어 학자냐에 따라 다르게 본다는 얘기. ‘직접적인 개입은 없지만 결과값의 편향은 있을 수 있다’ 이렇게 보면 되는 겁니까?
◆김승모> 그렇다면 윤영찬 의원, 네이버 부사장을 지낸 윤 의원이 그런 사정도 모르고 포털 관계자를 들어오라고 했을까 하는 의문이 남죠. 취재해 보니 미디어 전문가들은 물론 포털 내부 관계자들까지 인정하지 않을 수 없는 구멍이 엿보이긴 했습니다.
◇김현정> 포털과 전문가들이 모두 인정하는 구멍, 뭡니까?
◆김승모> AI 추천으로 기사나 인기 검색어가 선별돼도, 예상치 못하게 부적절한 단어들이 노출됐을 때 이를 관리하는 이른바 ‘검수 과정’이 있는데요. 그 틈을 악용하면 어떤 목적을 가진 개입이 완전히 불가능한 건 아니라고 입을 모읍니다. 다시, 국민대 윤종영 교수의 말입니다.
[녹취 : 윤종영 교수]
"어떤 것이냐에 따라 다르겠지만, 기본적으로 기술적으로 불가능은 없죠. 특수한 권한이 있는 사람이면 결국은 그것을 누군가 조절할 수 있게 만들어 놓을 것이고, 그것을 누가 어떻게 하느냐가 더 문제이지 할 수 있느냐, 없느냐의 문제는 아닌 거 같다."
◆김승모> 포털 측은 그럴 가능성도 일축하긴 하더라고요. 막무가내로 어떤 조치를 한다면 기존의 알고리즘 흐름을 크게 방해할 수밖에 없다는 겁니다. 이에 따라 처리과정 자체를 바꾸지 않는 한 직접 개입이 불가능하다고 하는데요. 그런데, 취재 과정에서 만난 한 포털 업체의 데이터 전문가는 꼭 불가능한 것만은 아니라고 합니다.
◇김현정> 특수한 권한을 행사할 여지도 있다?
◆김승모> 이 전문가는 ‘룰 베이스드 러닝(Rule-Based Learning)’이라는 개념을 설명해줬습니다. 쉽게 말하면 ‘무엇을 하라’는 식으로 구체적 명령을 입력하면 바로 그것을 수행하는 방식입니다. 지금까지 설명해드린 인공지능이나 머신러닝 이런 개념을 벗어난 방식인 것이죠.
◇김현정> 이게 우리가 흔히 아는 프로그램이에요. 무슨 명령어를 써서 엔터를 치면 그대로 실행되는. 그럼 윤영찬 의원이 그 가능성을 봤다는 겁니까?
◆김승모> 윤 의원은 뉴스 편집 형평성에 문제가 있다는 생각에, 관련 내용을 알아보려는 취지였을 뿐이라고 해명했는데, 그때 당시의 정확한 의도가 무엇인지는 알 수가 없겠죠. 다만 지금까지 설명해드린 전반적인 구조는 알고 있지 않았을까 싶네요.
◇김현정> 이런 잡음을 없앨 대책이 필요하겠네요.
◆김승모> 일단 검수 과정처럼 분명한 명분이 있는 개입이 아니라면 다른 조작과 외부의 개입은 차단하고, 그러한 기록과 흔적을 검증할 수 있도록 공개하는 것도 한 방법이겠죠. 또 현재의 AI 알고리즘 자체가 편향돼 있지는 않은지 점검해볼 필요도 있다는데, 이것은 경희대 송경재 교수의 말로 들어보시죠.
[녹취 : 송경재 교수]
"리버스 알고리즘이라고 하는데, 결과물을 가지고 보는 그것이라도 공개하라는 거죠. 그렇게 공정하고 객관적이고 그러면 그걸 공개하면 금방 나오거든요."
◆김승모> 예를 들어 지난 1년간의 뉴스 서비스 내용을 공개해서 결과를 바탕으로 알고리즘이 어떻게 뉴스를 추천하고 배치하는지 추정이라도 할 수 있게 하라는 겁니다. 인공지능은 스스로 반복 학습하면서 진화하는데, 그렇다면 처음 설계했을 때보다 편향성이 커졌을 가능성도 있으니까요. 전문가들은 또 이번 사안이 정치적 논쟁에 매몰돼선 안 된다고 주문하는데요. 포털은 정치권보다 이용자의 선택에 더 예민한 만큼, 이용자가 포털의 원칙에 대해 언제든 묻고 상세한 설명을 들을 수 있는 환경이 만들어져야 한다고 강조하네요.
◇김현정> 여기까지 훅뉴스 함께 했습니다. 생각해볼 지점들이 있네요. 고생하셨습니다.