연합뉴스"아윌 비 백(I'll be back)." 35년 전 영화 <터미네이터>를 기억하는 사람이라면 이 대사를 잊기 어려울 것이다. 이 영화에는 스스로 학습하고 사고하는 군사용 AI '스카이넷'이 등장한다. 이 시스템의 폭주를 두려워한 인간이 이를 파괴하려 하자, 스카이넷은 자신을 설계한 인간을 '적'으로 규정한다. 그리고 핵미사일을 자동으로 발사한다. 인류의 절반이 사라진다. 인간이 만든 시스템이 인간의 통제를 벗어나 전쟁을 향해 질주하는 장면은 섬뜩했다. 그럼에도 우리는 극장을 나서며 안도했다. 이건 허구니까. 아직은 먼 미래의 일이니까.
그러나 그 미래는 생각보다 훨씬 빨리 도착했다.
현실이 된 스크린 속 공포…먼저 쓰는 쪽이 이긴다
연합뉴스
우크라이나 전쟁은 AI가 실전에 투입된 최초의 사례였다. 우크라이나군은 팔란티어의 고담(Gotham) 플랫폼으로 전선 영상 5만여 개를 매월 실시간 분석하며 표적을 식별했다. AI를 활용한 드론 공격 명중률은 기존 10%에서 80%까지 치솟았다고 한다. '적이 먼저 쓰기 전에 우리가 먼저 쓰자'는 논리였다. 생존이 걸린 전장에서 반론을 제기하기 쉽지 않다.
이란 전쟁은 한 단계를 더 넘었다. 2월 28일 개전 첫날, 미국과 이스라엘은 이란의 핵·미사일 시설과 지휘부를 포함해 1천여 개 목표를 단 하루 만에 타격했다. 과거라면 수백 명의 분석관이 수주를 매달려야 할 작전이었다. 팔란티어의 고담이 위성·정찰·통신 데이터를 취합하면, 앤트로픽의 AI 모델 '클로드'가 공습 표적과 순서를 설계했다. 이 전쟁을 지휘한 브래드 쿠퍼 미 중부사령관은 AI 덕분에 "수일 걸리던 프로세스가 수 초로 단축됐다"고 말했다. 결과가 이렇다면, AI를 안 쓰는 쪽만 손해인 상황이다.
연합뉴스그러나 빠른 것이 곧 옳은 것은 아니었다.
바로 그 개전 당일, 이란 남부 미나브의 한 여학교에서 폭발이 일어났다. 사망자는 100명이 넘었고, 대부분 어린이였다. 워싱턴포스트는 해당 학교가 미군의 표적 목록에 올라 있었다고 보도했다. 트럼프 행정부는 이란 측 책임이라고 주장했지만 근거를 대지 못했고, 결국 조사를 진행하겠다고 물러섰다. 미 상원 민주당 의원들은 국방장관에게 "이 공습에 AI 표적 선정 시스템이 활용됐는지 밝혀달라"고 촉구했다. 미 국방부는 아직 공식 답변하지 않았다.
미군 측은 AI 활용 자체는 인정하면서도 "최종 공격 결정은 인간이 내린다"는 원칙을 강조하고 있다. 틀린 말이 아니다. 그러나 이스라엘군이 가자 전쟁에서 활용한 AI 표적 식별 시스템 '라벤더'의 사례는 그 원칙이 현실에서 어떻게 작동하는지를 보여준다. 라벤더의 오인율은 10%에 달했지만, 인간이 AI의 판단을 검토한 시간은 건당 20초에 불과했다. '인간이 결정한다'는 원칙은 살아 있지만, 알고리즘의 속도 앞에서 그것이 형식적 절차로 전락할 수 있다.
누가 책임지는가
여기서 핵심 쟁점이 드러난다.
AI가 '할 수 있는 것'과, 인간이 그것을 '어떻게 사용해야 하는지에 대한 규칙' 사이에는 분명한 괴리가 있다. AI는 방대한 데이터를 빠르게 처리하고 정교한 분석을 제시한다. 그러나 그 판단은 확률에 기반한다. 완벽하지 않다. 데이터 편향과 오판 가능성이 구조적으로 존재한다. 인간이 최종 결정을 내린다는 원칙은 살아 있지만, 판단의 방향은 이미 알고리즘이 설정하는 경우가 많다. 전장의 긴박함 속에서 그 원칙이 얼마나 작동하는지는 여전히 불투명하다.
오판의 대가는 민간인의 목숨이었다. 오류가 발생했을 때 책임은 누가 지는가. 알고리즘 개발자인가, 플랫폼을 제공한 기업인가, 최종 승인을 내린 지휘관인가. 지금 그 어느 쪽도 명확히 답하지 못한다. 기술의 속도가 책임을 묻는 방식을 앞질러버린 것이다.
국제사회가 손을 놓고 있는 것은 아니다. 2025년 12월 유엔은 '군사 영역에서의 인공지능과 국제 평화 및 안보에 미치는 영향'이라는 결의안을 채택했다. 올해 6월에는 AI 군사 활용에 관한 3일간의 다자 회의도 예정돼 있다.
논의가 시작된 것은 긍정적이다. 그러나 한계도 명확하다. 결의안에는 구속력이 없다. 미국, 러시아, 중국 등 AI 군사 강국들은 국제법에 의한 규제 대신 '각자의 자율적 가이드라인'을 내세우고 있다. 핵무기 비확산 체제가 핵 보유국 주도로 설계됐듯, AI 전쟁 규범도 AI를 먼저 전장에 투입한 나라들이 자국에 유리한 방향으로 만들어갈 가능성이 크다.
한국도 예외가 아니다
한국도 이 흐름 안에 있다. 올해 정부는 감시정찰, 정보 분석, 군수 지원 등 이른바 '국방 AX'에 약 997억 원을 편성했다. 이 방향이 틀렸다고 말하기 어렵다. 인구 절벽으로 병력은 줄고 있고, 북한은 AI를 접목한 드론과 사이버 공격 능력을 빠르게 고도화하고 있다. 기술 공백은 곧 안보 공백이다. 그러나 지금 우리가 물어야 할 질문은 'AI를 도입할 것인가'가 아니다. '어떻게 도입할 것인가'다. 효율성 너머의 문제들, 윤리적 책임, 오판 리스크, 책임 소재의 불분명함 등 불편한 질문들을 외면해선 안 된다.
현실의 AI는 '엄지척'을 모른다
영화 <터미네이터>에서 AI 살상 병기 T-800은 마지막 순간 스스로 용광로 속으로 뛰어들며 인류를 향해 '엄지척'을 남긴다. 인간의 감정을 배운 기계가 인류를 위해 자신을 희생하는 장면이다. 그러나 그것은 영화 속 이야기다. 현실의 AI는 우리가 설계한 대로 움직인다. 도덕적 판단도, 자기희생도, 스스로 멈추는 능력도 없다. AI 윤리에 대한 합의가 무르익기도 전에, AI는 이미 전장으로 불려나갔다. 그 책임은 인류의 몫이다. 'AI 시대', 어쩌면 진부하게 들릴지 모르지만, 속도보다 중요한 것은 방향이다.
박형주 전 VOA 기자, 『트럼프 청구서』 저자
※ 외부 필진 기고는 CBS노컷뉴스의 편집방향과 다를 수 있습니다.