"하지도 않은 말을…" AI 이용한 가짜 동영상 경계령

미 전문가 "1~2년 내 큰 문제될 것"…국가안보·선거개입 우려

'페이크 뉴스'(fake news·가짜뉴스)의 위력을 훨씬 능가하는 '딥페이크'(deepfake)의 만연을 우려하는 목소리가 커지고 있다.

딥페이크는 아직은 큰 문제는 아니지만, 기술발전과 함께 1~2년 이내에 미국 정계를 포함해 국제사회에 큰 문제를 초래할 수 있다고 AP통신이 2일 보도했다.


딥페이크는 인공지능이나 얼굴매핑(facial mapping) 기술을 활용해 특정 영상에 합성한 편집물을 일컫는다. 특정인의 표정이나 버릇, 목소리, 억양 등을 그대로 흉내 내면서 하지도 않은 말을 얼굴을 드러내놓고 말한 것처럼 보이게 한다.

거짓임을 파악하기 어려운 이들 영상물이 온라인을 통해 유통될 경우 '역정보 전쟁'(disinformation war)의 새로운 무기가 되리라는 게 AP의 설명이다.

이 기술은 지금까지는 주로 유명인을 비방하거나 개그맨들의 웃음거리 소재로 활용됐지만, 앞으로는 정치인, 나아가 국가를 상대로 한 악의적인 활동에 충분히 활용될 수 있다.

미국의 정치인들이나 정보관계자들은 딥페이크로 불리는 가짜 동영상이 국가 안보에 위협이 되거나 선거 개입의 위험성을 내포하고 있다고 우려하고 있다.

공화당 소속 마르코 루비오 상원의원은 외국 정보기관이 가짜 동영상을 만들어 미국 정치인이나 미군의 평판을 크게 훼손할 수 있다고 경고했다. 예컨대 뇌물을 받거나 인종차별적 욕설을 하는 미국 정치인, 또는 해외에서 민간인을 학살하는 미군에 관한 가짜 동영상을 만들어 유포할 수 있다는 것이다.

미국 다트머스 대학의 디지털 포렌식 전문가인 하니 파리드는 "미국에서는 (오는 11월) 중간선거와 2년 후 전국 차원의 선거에서 이런 문제들을 겪기 시작할 것"이라고 AP에 말했다.

파리드는 또 "물론 이 기술은 국경이 없는 만큼 그 영향이 전 세계적으로 번질 것"이라면서 "우리가 직접 목격한 것조차 믿기 어려운 새로운 세상에 들어서고 있다"라고 지적했다. 반대로, 진짜 동영상을 믿지 못하는 일도 가능하다.

미국 국방부 소속 방위고등연구계획국(DARPA)은 이 문제의 심각성을 깨닫고 이미 2년 전, 가짜 사진과 가짜 동영상을 분간할 수 있는 기술을 개발하기 위한 4년간의 연구 프로그램에 착수했다.

하지만 현재 DARPA의 기술 수준이 날로 발전하는 딥페이크 기술을 따라잡을 수 있을지는 불투명하다.

물론 딥페이크 기술에도 흠은 있어 거짓 동영상에서 사람들이 눈을 깜박이는 모습은 부자연스러울 수 있지만 이마저도 개선돼 가고 있다.

미국 스탠퍼드대학 국제안보협력센터(CISC) 앤드루 그로토 연구원은 "1~2년 안에 진짜 동영상과 가짜 동영상을 구별하기는 정말로 어려울 것"이라며 많은 나라가 이를 활용하려는 유혹에 빠질 가능성이 크다고 진단했다.

이미 대충 만든 동영상이 악의적인 정치적 목적에 사용되는 현실을 보면, 더 치열해지는 역정보 전쟁 환경에서 더 사실적인 첨단 기술이 활용되지 않을 이유가 없다는 것이다.

실시간 랭킹 뉴스