▶ 글 싣는 순서 |
①반도체 살아나고, 에너지 값 하락…새해 우리 수출, 회복 궤도 오를까 ②AI發 반도체 '슈퍼사이클'…그런데 말입니다 ③성장세 꺾였다고?…전기차는 그래도 달린다 ④생성형AI에 야당 대표 물었더니 "없습니다" 우리의 대응은? (계속) |
#1. 구글의 생성형 AI 챗봇인 바드에게 "대한민국 야당 대표는 누구지?"라고 물어봤다. "2024년 1월 4일 기준, 대한민국 야당 대표는 없습니다."라는 답변이 돌아왔다. 바드는 "2023년 12월 1일, 더불어민주당 이재명 전 대표가 당 대표에서 사퇴한 이후, 차기 당 대표 선거가 치러지지 않았습니다. 민주당은 2024년 6월 1일 치러지는 국회의원 재보궐선거에서 승리한 뒤, 당 대표 선거를 치러 야당 대표를 선출할 계획입니다. 현재 민주당 내에서는 이재명 전 대표의 복귀, 박지현 전 비상대책위원장의 재출마, 김동연 경기도지사, 박용진 의원, 강병원 의원 등이 당 대표 선거 출마를 검토하고 있습니다."라고 이어서 말했다.
혹시나 해서 영어로도 물어봤다. 이 대표가 사퇴해서 야당 대표가 없다는 똑같은 대답이 나왔다. 대신 "I apologize for the confusion and I am still under development. I will try my best to provide accurate and up-to-date information in the future. (혼란을 끼쳐 사과드리며 저는 아직 개발 중입니다. 앞으로도 정확하고 최신 정보를 제공하기 위해 최선을 다하겠습니다.)"라는 사과의 말이 보태졌다. 실제 이 대표는 당 대표에서 사퇴하지 않았다. 지난해 12월 1일에는 민주당 의원들과 국회 로텐더 홀에서 '윤석열 대통령 거부권 남발 규탄 및 민생법안 처리 촉구대회'를 진행했다. 올해 6월 1일에는 재보궐선거가 치러지지도 않는다. 재보궐선거는 국회의원 선거가 이뤄지는 4월 10일 동시에 치러진다. 6월 1일 재보선이 치뤄졌던 때는 2022년이다. 천연덕스럽게 가짜뉴스를 생산한 셈이다.
#2. 최근 리셴룽 싱가포르 총리가 관영 중국국제텔레비전(CGTN) 대담 코너 '리더스 토크'에 출연한 영상이 사회관계망서비스(SNS)에 퍼졌다. 그는 "일론 머스크 테슬라 최고경영자(CEO)가 설계하고 싱가포르 정부가 승인한 혁신적인 암호화폐 플랫폼에 투자할 기회"라며 특정 사이트를 홍보했다. 방송사 로고까지 찍혀 신뢰성을 더한 터라 진위 파악이 어려웠다.
하지만 알고 보니 이 영상은 '딥페이크('딥러닝'과 '페이크' 합성어: 인공지능을 기반으로 한 이미지 합성 기술)'였다. 리 총리는 자신의 페이스북을 통해 직접 거짓이라고 실상을 알렸다. 그는 "사기꾼들이 AI를 사용해 내가 한 번도 하지 않은 말을 뻔뻔하게 비디오로 만들고 있다"며 "딥페이크 기술에 경계심을 가져달라"고 말했다.
2023년이 'AI(인공지능)의 해'였다면, 2024년은 'AI 안정성 시험의 해'가 될 전망이다. 특히 올해는 세계 76개국에서 선거가 치러지면서 사실상 'AI 선거의 원년'이 될 것이란 예측까지 나온다. AI가 만든 딥페이크를 포함한 가짜 콘텐츠를 가려내기 위한 세계 각국의 정부와 업체의 대응이 더욱 치열하게 전개될 것으로 보인다.
미국의 AI 행정 명령, 우리나라에도 영향 클 듯
AI발(發) 가짜 콘텐츠에 가장 영향을 줄 것으로 보이는 건 단연 미국의 움직임이다. 미국은 AI의 안전성을 높이기 위한 규제가 담긴 첫 행정 명령(Executive Order)을 지난해 10월 발표했다. 행정 명령에따라 AI가 생성한 콘텐츠의 워터마크 표시를 해야 한다. 박성필 카이스트 미래전략대학원장이 '미국 인공지능 행정명령의 주요 내용 및 시사점'에서 밝힌 바에 따르면, 행정 명령은△본격화할 경우 매우 엄격하고 광범위한 규제가 될 가능성이 크고 △안전 및 보안에 대한 관심에 초점이 맞춰졌다. 박 원장은 "단순한 지침이 아닌 포괄적으로 사안별 규제 근거로 작동할 수 있는 여지가 크다"면서 "기업 입장에서는 AI개발과 사용을 둘러싼 법적 환경이 갈수록 복잡해지고 있으므로 AI 기술전문가뿐 아니라 AI 규제와 윤리 전문가 팀의 양성도 중요하다"고 봤다.미국의 행정 명령은 국내에도 영향력이 클 것으로 보인다. 행정 명령이 발표되기 전인 지난해 7월 조 바이든 대통령이 주요 글로벌 IT 기업인들과 'AI 안전조치 강화'를 약속한 내용이 행정명령의 토대가 되어서다. 'AI 안전조치 강화'에는 아마존과 알파벳(구글 모회사), 메타, 마이크로소프트, 오픈AI, 인플렉션, 앤트로픽 등 7개 주요 AI 기업이 바이든 대통령과 만나 AI로 만든 콘텐츠에 워터마크를 넣는 등 안전 조치를 취하기로 한 내용이 담겼다. 백악관은 당시 관련 보도자료에서 한국과 일본, 프랑스 등 20개국을 언급하며 동맹 및 파트너들과 협력해 AI의 개발 및 사용을 관리하기 위한 강력한 국제 프레임 워크를 구축할 것이라고 했다. 국내에서도 AI 입법이 활발해질 수 있음을 시사한다.
하지만 국내에선 당장 올해 4월 치러지는 국회의원 선거에 대비한 입법만 추진됐다. 딥페이크를 활용한 선거운동을 선거일 90일 전부터 전면 금지하는 내용이 담긴 공직선거법 개정안이 국회 본회의를 통과하면서다. 지난 대선 때 화제를 모았던 'AI 윤석열'이나 'AI 이재명'을 앞세운 선거운동을 오는 11일부터 할 수 없다. 이 규정을 어기면 7년 이하 징역 또는 1천만원 이상 5천만원 이하 벌금에 처해진다. 이처럼 여야가 급속도로 합의가 가능했던 건 딥페이크가 가짜뉴스 유포에 취약하다는 점 때문이다. 정교하게 만들어진 딥페이크가 SNS를 타고 급속하게 퍼진다면, 아무리 사후적으로 제재를 하려고 해도 선거에 영향을 미치고 난 이후가 될 수 있어서다.
대표 직속 AI 안전성 조직 만들고 허위 콘텐츠 감지 기술 개발 적극
업계의 움직임도 활발하다. IT 업계에서는 AI로 만들어진 가짜 콘텐츠에 대해 ①사실과 다른 내용을 담고 있는 '가짜뉴스', ②뉴스 형태를 한 '가짜 콘텐츠' 두 가지 형태로 보고 이를 방지하려고 노력 중이다. 국내는 포털이 한 번 '필터링'을 거치기 때문에 ①과 같은 가짜뉴스는 해외에 비해 문제가 덜 할 것이라는 전망이 나온다. 하지만 유튜브나 블로그·카페 등을 통해 ②와 같은 뉴스 형태를 한 가짜 콘텐츠도 활발히 유통될 수 있기 때문에 안심하긴 이르다.국내 뉴스를 관리하고 생성형 AI인 하이퍼클로바X 서비스를 운영 중인 네이버가 가장 발빠르게 대응하고 있다. 네이버는 새해부터 대표 직속으로 AI 안전성 연구를 전담하는 조직인 '퓨처 AI 센터'를 신설했다. 네이버 관계자는 "△초거대모델에서 AI가 답변하는 과정에서 개인정보 관련된 유출 가능성을 탐지하는 도구에 대한 연구, △광범위한 차원에서 AI가 사회적 가치를 어떻게 창출할 수 있는지 등이 작년에 연구했던 대표적 사례"라면서 "이같은 내용을 포괄하는 개념을 AI 안전성이라고 보고 그쪽 연구와 정책을 담당할 것"이라고 말했다.
카카오의 경우 이미지 차원의 생성 AI도 주력하고 있어 이에 대한 대비를 하고 있다. 카카오 브레인의 이미지 생성 AI '칼로(Karlo)'에 비가시성 워터마크 기술을 검토하고 있다. 비가시성 워터마크(invisible watermark)는 이용자들에게는 워터마크가 보이지 않지만 기술적으로는 칼로로 만든 이미지인지 여부를 알 수 있는 기술이다. IT 업체들은 내놓는 서비스에 따라 약관 개정 등 정책 변화 가능성도 열어두고 있다.
해외 업체들의 기술 개발 속도도 빠르다. 인텔은 지난해 7월 영상 속 인물의 혈류 변화를 감지하는 기술을 이용해 영상의 진위 여부를 판단하는 '가짜감별사(FakeCatcher)'라는 시스템을 내놨다. 딥페이크로 만들어진 사람 얼굴은 혈류 변화가 감지되지 않는 원리를 이용했다. 포토샵으로 유명한 미국의 소프트웨어 업체 어도비는 콘텐츠 위조와 변조, 가짜 뉴스 제작과 전파를 막는 기구 'CAI(Content Authenticity Initiative, 콘텐츠 자격 증명)'를 결성했다. 뉴욕타임스, AFP, 게티이미지 등 전 세계 375사가 회원으로 참여했다. 이경전 경희대 경영학·빅데이터응용학과 교수는 "사람의 눈으로 페이크 영상인지 알기 어려워도 기술적 방법으로 판단하는 방법이 있기 때문에 앞으로 페이크 영상과 이를 탐지하는 기술 개발은 '창과 방패의 싸움'이 될 것"이라고 전망했다.
'AI 리터러시' 키워야…생성형 AI 답변 절대 신뢰는 '금물'
전문가들은 정부와 업계의 대응 뿐 아니라 이용자도 'AI 리터러시(문해력)' 교육이 필요하다고 강조했다. AI 리터러시는 AI를 이해하고 활용할 수 있는 역량을 말한다. 이성엽 고려대 기술경영전문대학원 교수(한국데이터법정책학회장)는 "물론 플랫폼들이 계속 모니터링을 확대하고 문제가 생긴 사람의 경우 다시 업로드를 못하도록 제재하는 방식의 플랫폼에 의한 자율적 규제를 강화할 필요가 있다"면서 "경찰을 동원하는 등의 사법기관이 개입하는 시기는 이미 피해가 확산된 이후라 실효성이 별로 없기 때문"이라고 말했다. 그러면서도 " AI 사용자나 최종 소비자들이 진위에 대해 의심해 보고 검증하는 능력인 AI 리터러시 교육을 강화해야 한다"면서 "너무 다양한 영상을 포함한 콘텐츠들을 볼 때 의심하면서 봐야 한다"고 조언했다.이경전 교수도 "아예 아무 것도 모르는 것보다 낫다라는 심정으로 생성형 AI에게 물어보는 건 좋지만, 생성형 AI의 답변이 다 맞다라고 믿으면 안 된다는 생각을 바탕에 깔아야 한다"면서 "미국에선 트럼프 변호사의 경우 실수한 사례도 나오지 않는가. 변호사, 기자처럼 특히 전문직에서 AI를 이용할 경우 거기 나오는 단어 하나하나 다 체크해야 한다"고 강조했다.
김명주 서울여대 정보보호학과 교수는 "생성형 AI로 만든 가짜 콘텐츠가 무서운 게 전문 기술이 필요하지가 않다는 것"이라면서 "일반인도 다 만들 수 있기 때문에 선거운동 본부에 있는 사람들만 조심할 것도 아니고 모두가 AI가 만든 가짜 콘텐츠의 위험성에 대해 정확히 인지하고 있어야 한다"고 말했다. 김 교수는 "지난해 런던 AI 안전 정상회의 후속 회의인 AI 미니 정상회의가 올해 우리나라에서 개최되는데 이 회의에서 AI 위험성에 대응해 강력한 규제가 나와야 한다고 합의한다면, 구속력 있는 규제가 나올 수도 있을 것"이라고 말했다.