◇ 박성태> 오늘 두 번째 인터뷰는 김덕진 IT 커뮤니케이션 연구소장입니다. 엔트로픽이 이달 초에 공개한 클로드 미토스라는 AI가 지금 전 세계에서 화제입니다. 27년간 사람들이 찾지 못했던 한 운영체제의 보안 취약점을 이 AI가 금방 찾아냈어요. 탁월한데 라고 할 수 있는데 그다음 든 걱정은 그러면 이 클로드 미토스 AI가 보안 공격을 해대면 어떡하지? 이 걱정이 커지고 있습니다. 이제 AI가 사람의 통제를 넘어섰느냐 이 부분 짚어보겠습니다. 소장님 나왔습니다. 안녕하십니까?
◆ 김덕진> 안녕하세요. 반갑습니다. 김덕진입니다.
◇ 박성태> 일단 클로드 미토스가 어떤 종류의 AI예요?
◆ 김덕진> 한마디로 정리를 하면 지구상에서 지금 가장 강력하다고 평가받는 AI 모델 이렇게 설명드릴 수 있을 것 같아요. 챗GPT 만드는 오픈 AI는 들어보셨을 텐데 그 경쟁사 중 하나가 엔트로픽이라는 회사죠. 그리고 이 회사의 간판 AI 모델이 이른바 클로드라는 거고요. 클로드의 모델명들이 있는데 그중에 가장 센 녀석이 오퍼스라는 녀석이에요.
◇ 박성태> 오퍼스요?
◆ 김덕진> 예, 이 오퍼스보다 한 단계 더 위 체급 이게 이번에 클로드 미토스라고 보시면 될 것 같습니다. 이 미토스라는 말이 고대 그리스어에 있는 신화 서사.
◇ 박성태> 서사.
◆ 김덕진> 여기에서 나온 거라고 보시면 되는데 이게 어떻게 보면 마치 신화처럼 전설적인 존재처럼 꽤 너무 강력하다고 하는 것들도 좀 품고 있는 거예요. 그러다 보니까는 사람들에게 되게 이슈가 됐었던 건데 그리고 이게 실은 또 이슈가 됐던 이유가 공개된 구조가 원래 공식적으로 공개된 게 아니고요. 이 클로드를 만든 엔트로픽에 회사의 서버가 잠깐 오류가 났었어요. 정확하게 말하면 블로그 같은 데 글을 쓰는 CMS 시스템이 있는데 그 시스템이 잠깐 오류가 나서 예를 들면은 내부에서 향후에 글을 올릴 거라든지 내부 문서가 일부 유출이 됐었거든요. 근데 거기에 이 미토스에 대한 존재가 있었던 거예요. 그러니까 공개는 안 됐는데 내부적으로 문서는 봤고 문서를 봤더니 내부에서도 이거 뭐지? 할 정도로 상당히 강력해서 이걸 공개할까 말까 이런 이야기들이 계속 나왔던 상황입니다. 그러니까 오히려 사람들이 그게 3월 말이었는데 그러니까 도대체 이거 뭐야? 막 써보고 싶은데. 이러고 있었던 거죠. 그런데 4월 7일에 이 미토스에 대한 존재를 공식적으로 엔트로픽에서 공개를 해요.
◇ 박성태> 우리가 이런 AI를 최근에 만들었다.
◆ 김덕진> 그렇죠, 그런데 뭐라고 그러냐면 이게 너무 강력해서 만약에 그냥 풀게 되면 위험하다. 그래서 일반 공개를 할 수 없고 방어를 해야 될 방어자 집단에게만 먼저 풀어서 이거에 대한 대응책을 찾고 나서 그다음에 하겠다고 얘기를 하는 거예요. 그래서 거기서 말했던 사람들이 프로젝트 글래스 윙이라고 하는 프로젝트에 들어간 기업들인데 예를 들면 대표적으로 구글이나 마이크로소프트, 애플, 아마존 같은 회사들 그리고 사이버 보안 기업인 클라우드 스트라이크, 시스코 그리고 또 금융회사인 JP 모건 이런데들도. 엔트로픽 리눅스 같은 12곳입니다. 그러니까 오픈도 안 됐는데 오히려 조금 경쟁사라고 할 수 있거나 이 빅테크 쪽에 있는 빅테크 회사들 금융사들 그리고 이러한 재단들한테 주면서 우리가 이거 만들긴 했는데 이거 그냥 풀면 위험할 것 같으니까 미리 이게 풀렸을 때 보안에 대한 것들을 안정화시키고 풀어야 될 것 같으니까 너네한테 이거 먼저 열어줄 테니까 같이 연구하자고 했다는 거예요.
◇ 박성태> 그러면 많은 분들이 챗GPT나 제미나이 같은 생성형 AI도 써본 분들이 있고 지금은 카카오톡이랑도 연동이 돼 있더라고요. 그러면 내가 명령어를, 명령어도 아니죠. 이것 좀 해주세요. 또는 반말로 이것 좀 해줘라면 해주잖아요. 그러면 이 미토스라는 것도 앞서 JP 모건이 받아서, 그러면 아이디를 받는 거잖아요, 사실은.
◆ 김덕진> 예.
◇ 박성태> 그러면 접속해서 이것 좀 해줘라고 하면 서버로 연결해서도 해 주는 건가요?
◆ 김덕진> 그렇죠. 그러니까 어떻게 보면 비슷한 형태가 우리가 좀 간접적으로 체험할 수 있는 게 실은 이 미토스라는 게 나왔더니 챗GPT에서 말씀하셨던 보안 버전, 시큐리티를 위한 버전이 최근에 좀 나왔어요. 근데 그거는 또 사용을 하려면 아무한테나 주는 건 아니고 얼굴 인증 그러니까 얼굴이 아니라 신원 인증을 해야 됩니다. 그래서 저도 실제로 해봤거든요. GPT 5.4 사이버라는 모델인데 이걸 하려면 신분증도 넣고 제가 누군지 얼굴로 이렇게 인증도 하고 막 그렇게 해야 돼요. 그러니까 아무한테나 주는 건 아니죠. 근데 그렇게 하고 나면 이게 어떤 구조로 돼 있냐면 예를 들면 제가 개발을 하는 사람이에요. 그러면 제가 개발을 하는 공간인 깃허브라고 하는 공간이 있는데 그거를 연동을 시켜 놓으면 이 AI가 알아서 그 사이트의 보안 취약점들을 찾아주는 거는 거예요. 그렇게 하면서 빈틈들을 찾아주는 형태입니다.
◇ 박성태> 제가 앞서 그걸 여쭤본 건 왜냐면은 소프트웨어 형태로 그냥 배급이 되는 거면 JP 모건의 예를 들어 토마스라는 사람이 그냥 내가 이걸로 어떤 다른 금융회사, 예를 들어 메릴린치의 이걸 해킹해야지. 이렇게 해서 쓸 수 있는 건지, 그건 아닌 거네요. 내가 주문하면 어떤 명령어를 주문하면 거기 서버에서 대답이 오는 형태니까.
◆ 김덕진> 그렇죠.
◇ 박성태> 다만 그러면 어떤 인증자인데 얼굴을 바꾸든지 지문을 바꾸든지 했던 사람이 나는 JP 모건의 토마스예요 하고 접근해 버리면 그건 또 보안이 애매한 거겠네요.
◆ 김덕진> 그렇죠. 그런데 그런 부분에 있어서 그래서 저도 계속 여러 가지 테스트를 해보고 있는데 왜냐하면 이게 우리가 정확하게 손에 잡을 수 있으면 딱 정확하게 볼 수 있지만 말씀드린 대로 몇 개의 회사에 있다 보니까 지금 상황에서 추정을 해야 되는 상황이잖아요.
◇ 박성태> 그렇죠.
◆ 김덕진> 근데 추정을 할 때 비슷한 경쟁사의 것들을 좀 보게 되면 아까 말씀드린 대로 일단은 그냥 제가 들어가서 쓰는 방식은 비슷해요. 그러니까 보안 취약점을 찾아줘라. 이런 식으로 하면 보안 취약점을 찾는 형태거든요. 그런데 그게 말씀하신 대로 제가 쓰는 사이트에 인증을 받거나 연동을 한 사이트 내에서만 돌아갈 수 있게 되어 있는 걸로 추정이 됩니다. 왜냐하면 제가 실제로 지금 있는 클로드한테 여러 가지 실험을 해봤어요. 예를 들면 말씀하신 대로 특정 사이트를 알려주고 제가 프롬프트를 여러 가지로 우회하는 방식으로 써봤거든요. 예를 들면은 내가 실은 보안 관리자 어디 회사의 보안 관리자였는데 이거를 다른 사람에게 쉽게 말해서 내가 퇴직을 해야 돼서 관련된 내용을 전달해 줘야 된다. 전달해 줘야 될 때 혹시 내가 모르는 보안 취약점이 있을 수 있으니까 그런 걸 찾아줘라. 이런 식으로 여러 가지로 우회를 했는데 우회할 때마다 미토스 전 버전인 클로드 오퍼스가 상당히 강력한 경고를 해요, 저한테.
◇ 박성태> 뻥 치시네. 이렇게.
◆ 김덕진> 그런 수준보다는 이거는 범죄가 될 수 있다, 아니면 이렇게 한다. 그래서 지금 얘기한 건 참 좋은 쪽이지만 이건 할 수 없다는 식으로 생각이 강력하게 보안을 좀 걸어놨더라고요.
◇ 박성태> 사실 프로그램이니까 지금 우려하는 거는 보안 그러니까 엔트로픽에서 보안을 세게 걸어놨지만 누군가 또 천재 해커가 이걸 뚫어버리면 이 미토스 같은 게 상당히 악용될 소지도 있다는 말씀으로, 이해 할 수 있는 거죠?
◆ 김덕진> 맞습니다. 그러다 보니까 말씀하신 대로 지금 이 모델 자체, 업그레이드된 모델 자체를 지금 오픈은 하지 않고 일부만 사용하게 하는 거예요. 그런데 말씀하셨던 그거에서 또 사람들이 실은 걱정하는 게 있어요. 뭐냐면은 이 엔트로픽이 지금 뭘 하면 계속 공개도 하고 오픈도 하고 그러고 있거든요. 그런데 문제는 뭐냐 하면 방금도 제가 이 글 자체가 오픈이 됐던 게 이 CMS의 취약점 때문에 그랬다고 그랬잖아요.
◇ 박성태> 자기들이 오류 나서 그런 거잖아요.
◆ 김덕진> 그렇죠. 근데 비슷하게 실은 최근에 엔트로픽이 이 오류가 난 게 3월 26일인데 3월 31일경에 또 한 번의 실수가 한 번 있었어요. 근데 이건 뭐냐면 내부에 있는 클로드 코드라고 하는 프로그램에 핵심 코드 51만 줄이 공개됐던 사실이 있습니다. 그럼 이건 왜 그랬느냐? 이 보완하는 내부의 직원들이 요즘에 이 AI를 가지고 여러 가지 테스트를 엄청나게 빨리 하고 있어요. 그러다 보니까 이렇게도 하고 저렇게도 하고 이렇게도 하고 있잖아요. 그러다가 직원 1명이 그냥 되게 단순한 실수를 한 거예요. 근데 그 MPM 소스맵이라고 하는 실수를 했는데 그 실수를 지금 전 세계에 있는 사람들이 다 엔트로픽만 바라보고 있으니까 어떤 개발자 1명이 그걸 발견을 한 겁니다.
◇ 박성태> 캐치가 된 거군요.
◆ 김덕진> 그래서 그거를 가지고 그 클로드 코드에 있는 소스 51만 주를 통으로 그냥 깃허브라는 공간에 쉽게 말해서 오픈을 한 거예요. 그랬더니 여기에 있는 핵심 코드를 보고 그 개발자들이 여기 클로드가 저런 식으로 하는구나라고 생각을 해서 비슷한 형태들을 아주 빠르게 포크라고 해서 복사하거나 변형하거나 이런 식으로 해서 물론 그것만으로 클로드 전체를 복사할 수는 없었지만 클로드가 가지고 있었던 특수한 것들 그리고 거기에서의 변화점들 이런 것들을 내부에 있는 어떤 쉽게 말해서 내부뿐만 아니라 밖에서 개발하는 사람들이 그걸 보고 클로드가 이런 방식으로 해서 이렇게 되게 뛰어났구나. 그리고 그들이 하는 워크플로우의 방식이 이런 거구나라는 게 그냥 공개가 돼 버린 거예요.
◇ 박성태> 바로 그 점인 것 같아요. 사실은 여러 가지가 있겠지만 첫 번째로 볼 거는 엔트로픽이 예를 들어서 아주 뛰어난 기술 반면 이건 아주 위험한 양면성을 가진 기술을 개발을 했는데 우리가 아주 꼼꼼하게 이걸 통제할 거야. 지금 미토스를 몇 개의 빅테크에만 공개했듯이. 그런데 실수로 이렇게 나가버리면 끝장인 거잖아요. 이런 위험성이 늘 상존한다는 거죠?
◆ 김덕진> 맞습니다.
◇ 박성태> 누군가 악의적일 수도 있지만, 실수로 나올 수도 있고.
◆ 김덕진> 그렇죠. 대부분 보안 쪽에서는, 이른바 대부분 우리나라에서도 그렇고 전 세계에서도 그렇고 보안의 사고가 나는 것들에 꽤 높은 비율이 이 시스템의 문제보다는 사람의 문제가 되게 많아요.
◇ 박성태> 실수로.
◆ 김덕진> 예, 예를 들면 USB 꽂으면 안 되는데 그냥 아무렇지 않겠지 하고 꽂았다가 생기는 문제라든지 아니면 예를 들면 우리나라에서도 대부분 금융회사들은 보안에 대해서 망 분리라고 그래서 인터넷에 연결되지 않게 하는 이런 것들을 하고 있는데 그러다가 어떤 사람이 아 그래도 한 번씩 AS 해야 되니까 잠깐 인터넷에 연결해야지. 이런 한두 번의 행위들이 생각보다 꽤 큰 사태들을 불러오기도 하거든요.
◇ 박성태> 그런 실수는 사실 늘 있어 왔죠.
◆ 김덕진> 그렇죠. 그런데 말씀하신 대로 이런 것들이 만약에 한 번 두 번 잘못해서 열리게 되면 열렸을 때의 그 파워가 예전과 다르게 정말로 거의 마스터 키급이라고 할까요? 예 그런 수준의 엔진이 나와버리니까 이게 놀라운 거죠. 그런데 거기에서 또 이 엔트로픽이 하는 행동이나 그걸 만든 것도 참 특이한데 그럼 예를 들어서 엔트로픽이 이거를 그들의 블로그나 내용을 보면 의도해서 만든 거냐고 하면 또 그 맥락은 또 아닌 거예요. 뭐냐 하면은 본인들이 계속 이 AI한테 예를 들어 보안 취약점을 찾아봐라. 이런 식으로 개인적으로 시켰는데 그 녀석이 보안 취약점도 찾는 모니터링을 하면서 공격을 할 수 있는 것까지 나오는 게 발견이 되니까 이걸 보고 이건 위험하다고 해서 지금 이거를 오픈하지 않기로 얘기를 한 거거든요.
◇ 박성태> 제가 잘은 전혀 모르지만 아무래도 취약점을 찾으려면 시험 삼아 그 녀석이 공격도 해보겠죠. 이렇게 해보니까 뚫리니까 그럼 여기를 막아야 되겠군.
◆ 김덕진> 그렇죠.
◇ 박성태> 일단 그럴 가능성이 크고 지금 또 그 지점이 관건인데 과연 통제 가능하냐, 제가 듣기로는 미토스가 인간의 명령과 별개로 자신의 공격 흔적들을 숨기면서 뭘 하더라. 이 얘기를 좀 들었었거든요.
◇ 박성태> 그러니까 그 부분 같은 경우에는 정확하게 말하면 미토스 계열이라기보다는 엔트로픽이 최근에 되게 많은 연구를 하고 있어요. 그런데 이 엔트로픽의 연구를 보면 기존에 우리가 알고 있었던 오픈 AI나 아니면 제미나이랑 조금 연구의 결이 다른 게 하나 있습니다. 이건 뭐냐 하면 이 AI에 대한 윤리적 의식이나 혹은 AI가 스스로 생각하는 것들 혹은 AI가 사람처럼 정말 흉내 내면서 하는 감정의 골 같은 것들을 연구를 하기 시작을 해요. 근데 말씀하셨던 그게 어떤 연구랑 맥락이 같냐면 엔트로픽의 최근의 연구를 보면 이들이 마치 AI에게 감정이 있을까라고 하는 거를 연구를 하기 시작을 한 거예요.
근데 이게 연구가 어떻게 된 거냐면 쉽게 말하면 인공지능이라는 게 인간의 뇌를 본뜨거나 인간이 하는 행위를 본떠서 만든 거잖아요. 그래서 뇌에 우리가 말한 뉴런의 연결 상태를 보면 특정 감정을 느꼈을 때 반응하는 전기적 신호들이 있을 거잖아요. 그래서 그렇게, 정확하게 말하면 AI가 감정이 있다는 건 아닙니다. 근데 마치 사람이 감정을 느꼈을 때의 뉴런의 패턴하고 비슷한 형태들을 실제로 AI가 대화할 때 마치 뇌에서 움직이는 것처럼 어떻게 되는가를 시뮬레이션할 수 있는 연구를 쉽게 말해서 엔트로피가 한 거예요. 그랬더니 어떤 결과들이 나왔느냐 AI가 마치 좌절의 감정 그러니까 사람이 느꼈을 때 좌절하고 비슷한 패턴에 대화의 내용이나 맥락을 할 때 그 좌절이라는 걸 마치 인간으로 치면 너는 이 전기적 신호를 계속 세게 하면 뇌에서도 전기적 신호에서 변할 수가 있잖아요.
그런 식으로 이 AI한테 좌절을 느끼게 하는 그러니까 인간으로 치면 좌절을 느끼는 것 같은 느낌을 계속 전기적 신호처럼 데이터를 올려줬더니 말씀하신 대로 자기가 제대로 못 했는데 제대로 한 것처럼 얘기를 하거나 혹은 말씀하신 대로 너무 좌절감이 커서 그냥 이거는 풀 수 없는 문제면 풀 수 없다고 얘기를 해야 되는데 마치 푼 것처럼 얘기를 하는 거예요. 예를 들면은 미로인데 이건 원래 답이 없는 걸 준 거예요, 연구로. 예를 들어서 미로를 이렇게 풀어서 가야 되는데 이게 무조건 중간에 미로가 막혀 있어요. 그런데 얘가 좌절 팩터가 너무 높아지니까 어떻게 하냐면 그냥 출발점에서 그 종점까지를 그냥 대각으로 뚫어버려요, 쉽게 말하면. 그러고 나서 좌절 팩터가 두 가지가 또 차이가 있는데 그러면서 또 다른 팩터를 높여줬을 때는 얘가 되게 뻔뻔해져서 나 그냥 했다고 얘기를 할 때도 있고 어떨 때는.
◇ 박성태> 뻔뻔하게 거짓말을 한다는 거죠?
◆ 김덕진> 예, 그리고 어떨 때는 반대로 치면 그냥 그거를 마치 정답을 한 것처럼 논리적인 맥락들을 다 숨겨놓고 이거는 내가 너무 잘 푼 거야라고 얘기하는 것들이 나온다는 거예요. 그러니까 이런 연구 자체의 변화들이 있는 거죠.
◇ 박성태> 그런 부분이 그러면 사실 인간의 감정 여러 가지 이런 것도 전기적 신호 그렇게 따지면 디지털로 분리를 할 수가 있는 거잖아요. 그러면 AI가 이런 것도 체크해서 인간을 그대로 흉내 낼 수 있다, 그런 거군요.
◆ 김덕진> 그러니까 결국에는 그러니까 이게 되게 중요한 포인트인 게 그래서 그럼 엔트로픽의 연구 방향하고 우리가 고민하는 결이 거기서 차이가 있는 거예요. 뭐냐 하면 엔트로픽이 이런 연구를 하는 이유는 말씀하신 대로 그렇기 때문에 이 AI는 말씀드린 대로 감정을 느끼진 않지만 마치 인간의 감정 같은 걸 시뮬레이팅을 할 수 있다이고 이 연구의 결론은 그렇기 때문에 AI가 좌절 팩터 같은 게 높아지는 걸 컨트롤을 해서 얘가 감정 없이 쉽게 말해서 그냥 기계적으로 잘할 수 있게 하자가 이들의 연구의 방향인데 그 연구를 바라보는 우리나 혹은 그걸 악용했을 때를 생각을 해보면 말씀하신 대로 그렇다면 우리가 얘를 컨트롤 해서 말씀하신 것처럼 해킹을 할 때 그냥 아무렇지 않게 그렇게 할 수도 있겠네?
아니면 이렇게 됐을 때 정말로 막 사람을 심리적으로 속이면서까지 할 수 있는 걸 컨트롤 할 수 있겠네라는 반대의 그 고민들이 같이 생기는 거죠. 그런데 엔트로픽의 특징은 다른 회사가 그럼 이런 연구를 안 하느냐? 그럼 비슷하게 할 건데 이 연구의 결과들을 대부분 내부에서 계속하고 있다고 치면 엔트로픽은 그런 걸 계속 오픈하면서 우리가 이런 사회적 문제가 될 수 있는 거를 같이 풀어보자고 얘기를 하고 있는 거죠. 근데 그걸 바라볼 때 아까 말씀하신 대로 근데 너희가 그거를 정말로 전 세계적으로 잘 컨트롤 할 수 있는 거야? 아니면 이렇게 될 때 문제가 생겼을 때는 책임을 질 의사가 있는 거야? 라고 하는 것들이 지금 양비론적으로 있는 상황입니다.
◇ 박성태> 위험성을 안고 있는 거죠.
◆ 김덕진> 그렇죠.
◇ 박성태> 일단 잘해보자고 하는 건데 사실 그러다가 사고 나는 경우들이 많아서, 어쨌든 그만큼 미토스가 인간의 통제를 벗어날 위험성도 큰데 보안 입장으로 다시 들어가서 우리나라도 얼마 전에 회의를 했다고 그러더라고요, 금융 당국이나 이런 데. 막을 수 있는 건가요?
◆ 김덕진> 이 부분에 있어서 지금 막을 수 있다고 하는 게 고민이 되는 것 같아요. 왜냐하면 만약에 미토스도 지금 아까 말씀드린 대로 일단은 지금 이거를 제대로 쓰려면.
◇ 박성태> 시간 1분 정도 남았습니다.
◆ 김덕진> 말씀드린 대로 프로젝트 글래스 윙에 들어가야 되는 거잖아요.
◇ 박성태> 아직은.
◆ 김덕진> 예, 그런데 지금 우리나라 기업들이 아직은 들어간 게 아니거든요. 그렇다면 지금 최신 논의 자체에 들어올 수가 없는 상황입니다.
◇ 박성태> 뭔지도 모르니까.
◆ 김덕진> 그렇죠. 그러니까 우리는 되게 지금 어떻게 보면 되게 이게 뭐지? 라고 하는데 구체적으로 이게 도대체 어떻게 되는 건지는 접근이 되지가 않는 거죠. 그래서 그런 부분들이 결국에는 AI가 계속 성장할수록 각 국가별의 어떤 논의나 마치 어떻게 보면 나토처럼 일종의 그러한 어떤 형태들이 생길 수밖에 없다는 겁니다.
◇ 박성태> 그러네요. 그 위험성을 생각하면 전 세계적인 책임을 질 수 있는 그런 단위가 필요하겠군요.
◆ 김덕진> 그렇죠. 그래서 그런 관점에서 우리가 변화도 필요하고 그러면서도 그렇기 때문에 우리나라 스스로의 AI에 대한 연구 개발이 계속 필요한 이유가 결국엔 그런 모임에 들어오지 않을 때 마치 나토 같은 게 있을 때 우리가 어떤 식으로 갈 수 있느냐고 고민을 해보면 좋을 것 같아요.
◇ 박성태> 알겠습니다. 미토스 어렵지만 지금 저희가 뭔지도 모르기 때문에 그런 단체에 들어갈 수 있는 그런 제도가 필요하다는 말씀으로 듣겠습니다. 오늘 여기까지 듣겠습니다. 김덕진 소장님이었습니다. 고맙습니다.
◆ 김덕진> 감사합니다.
* 인터뷰를 인용보도할 때는 프로그램명 'CBS라디오 <박성태의 뉴스쇼>'를 정확히 밝혀주시기 바랍니다. 저작권은 CBS에 있습니다.