◇ 박성태> 지금부터는 공부를 잠깐 해 보도록 하겠습니다. 코스피가 연일 최고치고요. 지금 시장에서도 반도체주는 또 오르고 있는 것 같아요. 삼성전자, 하이닉스는 제가 조금 전에 확인했는데 또 오르고 있는 것 같고 반도체가 우리나라 증시 전체를 끌어올리고 있죠. 그래서 이 반도체가 지금 왜 대체 이렇게 인기고 그러면 앞으로는 또 어떻게 될지 이 반도체에 대한 공부를 잠깐 해보도록 하겠습니다. 고대역폭 메모리 HBM의 아버지로 불리는 분입니다. 처음 HBM 개념과 상용화를 시작한 분이죠. 김정호 카이스트 교수님 모시고 반도체의 미래 이야기해 보겠습니다. 교수님, 안녕하십니까.
◆ 김정호> 반갑습니다.
◇ 박성태> 일단 HBM을 필두로 해서 우리나라 반도체, 삼성전자와 SK하이닉스 반도체가 전 세계에서 가장 인기 있는 상품이 됐어요. 감회가 어떠십니까?
◆ 김정호> 제가 삼성전자하고 일을 시작한 게 94년이고 하이닉스하고 일을 시작한 게 96년입니다. 그러니까 30년 됐는데 그 기간 동안 기업이 엄청 성장을 했고요. 최근에는 좀 폭발적으로 성장을 하는데 또 국가 경제에도 이바지하는 것 같고 그래서 참 뿌듯하고요. 또 거기 우리 제자들도 많이 가 있습니다. 그래서 30년 전에 제가 같이 일했던 분들은 다 퇴직하고 안 계시는데 저는 아직까지 같이하고 그래서 영광으로 생각하고 가문의 영광으로 생각하고요. 지난주 토요일 저희 연구실 30주년 모임이 있었습니다. 기흥에서 삼성전자 바로 코 앞에서 했습니다. 그게 저희의 마음을 많이 표현하는 건데 너무나 분위기가 좋았습니다.
◇ 박성태> 정말 뿌듯하시겠어요. 사실 세계 최고의 기업이라고 불렸던 엔비디아, 구글, 애플. 어떻게 보면 지금 교수님께서 참여하신 그 프로젝트를 필두로 해서 반도체가 앞서 언급한 기업들과 삼성전자, 하이닉스가 어깨를 나란히 하도록 했잖아요.
◆ 김정호> 또 미래는 지금 AI를 저는 동시에 같이 보고 있는데요. AI의 본질은 메모리더라고요. AI가 왜 이렇게 똑똑한가 봤더니 기억력이 좋은 거더라고요. 그거를 작년 가을부터 깨닫기 시작했는데 구글도 그렇게 느끼고 아마 테슬라, 엔비디아 다 요즘 그렇게 느낄 겁니다. 그래서 사재기에 들어간 것 같습니다. 그런데 이런 게 지속된다면 삼성이 엔비디아도 넘을 수도 있지 않겠나, 언젠가는.
◇ 박성태> 언젠가는.
◆ 김정호> 언젠가는, 그런 꿈도 꿔봅니다.
◇ 박성태> 지금 사실 이익 규모는 삼성전자가 비슷해지긴 했습니다. 엔비디아가 세계 시총 1위이긴 한데.
◆ 김정호> 시총 1위 하고 삼성전자가 몇 배 차이 나는지 정확한 숫자는 없습니다.
◇ 박성태> 3배 좀 넘게 차이 납니다.
◆ 김정호> 3배는 한번 도전해 볼 수 있지 않을까. 제 남은 기간, 몇 년이 될지 모르겠습니다. 그 기간 동안 제 꿈입니다.
◇ 박성태> 제가 사실 HBM부터 먼저 여쭤보려고 그러는데 지금 방금 교수님께서 AI는 보니까 AI 기본은 메모리더라.
◆ 김정호> 본질이 메모리다.
◇ 박성태> 본질이 메모리더라, 왜 그런 겁니까?
◆ 김정호> 시간이 제약돼 있어서 짧게 짧게 말씀드립니다만은 과거의 인공지능은 학습에 기반을 했습니다. 그때 GPU가 필요하고 데이터가 많이 필요했는데 근본적인 한계에 딱 부딪혀 버렸습니다. 그걸 할루시네이션이라고 그러는데요. 환각 현상입니다. 아무리 데이터 갖고 하더라도 진실을 모두 다 알 수는 없다는 게 하나가 있고요. 그 다음에 개인화라는 게 있는데요. 개인에 맞춰서 결과를 내줘야 되는데 그렇게 해서 할루시네이션을 극복할 수 없기 때문에 아예 우리가 질문을 하면 인터넷에서 찾아서 하거나 내가 제공한 정보를 갖고 결과를 주는 방식으로 바뀌고 있습니다.
그러니까 최신 정보를 가장 많이 갖고 있는 인공지능이 정확한 답을 낼 수밖에 없고 또 하나는 인터넷 검색을 잘하는 인공지능이 잘할 수밖에 없고 또 하나는 제 개인 데이터를 많이 가질 수 있는 인공지능이 저한테 맞춤형으로 결과를 줄 수밖에 없습니다. 인공지능 기업으로 보면 구글의 제미나이, 오픈 AI의 챗GPT, 앤트로픽의 클로드가 있는데 AI의 모델 자체는 거의 저는 평준화됐다고 봅니다. 이제는 누가 많은 데이터를 많이 갖고 있느냐인데 그거를 공급하고 빨리 줄 수 있는 거는 메모리입니다. 그래서 결국은 AI의 게임은 메모리에서 결정되는 걸로 가고 있다. 이렇게 저는 판단하고 있습니다.
◇ 박성태> 결국은 데이터를 얼마나 빨리 찾아내서 또 많이 보고 이거를 추론에 응용하느냐가 AI의 핵심인데.
◆ 김정호> 그렇습니다. 그래서 결국 AI 성능은 메모리의 속도와 용량의 곱으로 표현된다는 게 제 주장입니다.
◇ 박성태> 메모리의.
◆ 김정호> 속도와 용량. 얼마나 빨리 제공해 주느냐, GPU에. 그게 속도고요. 그거를 대역폭이라고 보통 얘기하고 용량은 몇 테라바이트냐, 몇 페타바이트냐 1인당 제공할 수 있느냐, 그걸 인프라 게임이라고 우리가 또 얘기하는데요. 게임이 AI 모델에서 인프라 게임으로 넘어가고 있는 겁니다. 그래서 테슬라의 일론 머스크가 테라팹을 짓겠다는 이런 얘기도 나오고 있고요. 결국은 그 뒤에 전기와 자본의 게임으로 넘어가고 있습니다. 근데 기술적으로 보면 가장 부가가치가 높고 중요한 게 메모리다. 이렇게 생각을 하고 있습니다.
◇ 박성태> 예를 들어서 우리가 친숙한 제미나이나 챗GPT 둘이 경쟁을 한다고 하면 각각의 GPU 칩들이 옆에 있는 메모리들에게 정보를 많이 넣고 우리가 프롬프트 질문을 넣었을 때 명령어를 넣었을 때 얼마나 빨리 얼마나 많은 정보를 검색해서 적절한 답을 꺼내냐 이게 핵심이라는 거네요. 그러면 그 역할은 메모리가 하고.
◆ 김정호> 그게 반쯤 되고요. 그게 반쯤 됩니다. 그래서 요즘 그런 역할을 하는 쪽에 낸드 플래시 메모리가 많이 필요해서 삼성, 하이닉스, 샌디스크 주가가 하늘을 올라가고 있는 거고요. 그 다음에 읽어온 다음에는 GPU가 해석을 한번 합니다. 그래서 만들어내는 결과를 KV캐시라고 하는데요. 그 다음에 우리가 단어를 쭉 하나씩 뽑아내 줄 때 GPU하고 HBM 사이에 데이터를 엄청 빠른 속도로 주고받아야 됩니다. 그 두 단계가 아까 낸드 플래시와 HBM이 둘 다 필요한 그런 시대가 됐습니다.
◇ 박성태> 저장돼 있는 건 낸드 플래시에 저장돼 있고.
◆ 김정호> 대부분.
◇ 박성태> 그리고 우리가 HBM이라는 건 GPU랑 바로 연결되는.
◆ 김정호> 해서 주거니 받거니 하면서 우리 인간의 언어를 인공지능의 언어로 해석한 다음에 그걸 케이블 캐시라고 그러고요. 그걸 하나씩 우리한테 쏟아내 주는 겁니다. 그럴 때는 또 속도가 또 중요하고 그렇습니다. 근데 우리 삼성전자, 하이닉스는 둘 다 하잖아요. 완전히 양손에 떡을 들고 있는 거죠.
◇ 박성태> 약간 이렇게 이해하면 됩니까? 기본적인 저장 공간은 낸드 플래시가 담당을 하고 있고 데이터를 저장하는 건.
◆ 김정호> 그런 거를 전문용어로 롱텀 메모리라고 그럽니다. 그래서 콜드 메모리라고 하고 지금 당장 막 1초에 수조 번씩 갖다 쓰는 건 아니고 필요할 때 빨리 갖다 써야 되는 메모리입니다.
◇ 박성태> 그러면 제 개인 저장 기록이나 어떤 활동 기록.
◆ 김정호> 아니면 전에 어제 혹시 앵커님이 챗GPT 썼으면 그 기록을 또 어디 보관하고 있습니다.
◇ 박성태> 그게 낸드가 하는.
◆ 김정호> 예, 근데 나중에, 그것도 용량이 안 되니까 저는 HBF로 해야 된다는 게 제 주장이고요.
◇ 박성태> 그렇군요. 그러면은 그 앞에 GPU 칩 옆에 바로 붙어 있는 게.
◆ 김정호> 날개처럼 붙어 있는 거.
◇ 박성태> HBM. 이게 아주 빠른 속도와 용량으로 GPU를 도와주는.
◆ 김정호> 도와준, 지금까지는 최고였죠. 그런데 용량이 좀 딸려서 낸드나 HBF가 요즘 중요해지는데 어쨌거나 바로 옆에 붙어서 계산을 열심히 도와주는 GPU의 계산을 도와주는데 미래에는 아예 GPU 일부 기능을 HBM에 넣자는 게 제 주장입니다. 계산도 우리가 하자. 그러면 엔비디아 왕따시키자는 거죠. 지금 HBM4에는 이미 그게 좀 들어가기 시작하고 있습니다.
◇ 박성태> 제가 좀 낮아서 잘 몰라서 다시 좀 밑으로 내려가서 여쭤보면 혹시 저희보다 위에 있는 분들에게는 정말 죄송할 수 있겠는데 그러면 AI 데이터 센터라고 우리가 흔히 얘기하는 거는 방금 말씀하신 낸드 같은 롱텀 메모리들이 쭉 있는 데이터들을 가지고 있는 방대한 창고.
◆ 김정호> 공장이 두 종류가 있습니다.
◇ 박성태> 그다음에 GPU와 HBM으로 이루어진.
◆ 김정호> 공장이 두 종류가 있는데 AI, 메모리 팩토리라고 저는 요즘 부르는데요. 낸드만 집중적으로 있는 팩토리가 하나가 있고 그 옆에는 GPU하고 HBM이 같이 붙어서 우리한테 AI 생성 서비스를 해주는 또 팩토리가 있고 그렇게 되겠습니다. 근데 낸드 플래시로 이루어진 팩토리와 GPU, HBM 팩토리를 연결해 줘야 되잖아요. 그걸 광통신으로 요즘 하고 있습니다.
◇ 박성태> 그래서 또 광통신주가.
◆ 김정호> 그렇게 또 연결이 되는 겁니다.
◇ 박성태> 연결이 되는 거군요. 알겠습니다. 근데 방금 말씀하신 낸드나 HBM, 다 우리나라가 세계 최고.
◆ 김정호> 그렇습니다. 근데 거기에 아까 말씀드린 것처럼 HBM4, 5, 6, 7 가면서 GPU와 CPU도 HBM 안으로 집어넣자는 게 제 주장이에요. AI 컴퓨팅이 메모리 중심으로 일어나니까 GPU에 종속하지 말고 우리가 다 하고 조금 귀찮은 계산만 GPU테 넘겨주자는 거예요. 근데 그렇게 하려면 파운더리가 있어야 돼요. GPU와 CPU를 설계할 능력과 제작 능력이 있어야 되잖아요. 그게 삼성전자가 갖고 있다고 볼 수 있습니다.
◇ 박성태> 삼성전자가 그걸 갖고 있는 게 나중에 접목시킬 수도 있다는 말씀이시군요.
◆ 김정호> 이미 HBM4부터는 시작을 했고요. 그러니까 토탈 솔루션을 낼 수 있는 거죠. 그러니까 우리가 그걸 버티컬 스틱이라고 하는데 오늘 기독교 방송에서 너무 무리한, 근데 이런 용어를 우리 앵커님이나 시청자님들이 익숙하지 않으실 수 있는데 내년쯤 되면 또 귀에 따갑게 들으실 겁니다. 저는 좀 그다음 세대를 얘기를 하는데 구글 같은 경우는 다 있는데 메모리가 없고요. 오픈 AI는 모델만 있죠, 엔비디아는 메모리가 없고요. 근데 삼성은 전체 풀 스텍을 가질 수 있기 때문에 잘하면 세계 1등 기업도 될 수 있고 그 대신에 또 경쟁자도 많을 것 같습니다.
◇ 박성태> 그러면 HBM부터 여쭤보도록 하겠습니다. 사실 그것도 제가 잘 몰라서 HBM이 무엇이고 일단 왜 각광받는지 좀 설명을, 일단 기존 메모리와 뭐가 다른 겁니까?
◆ 김정호> 두 가지 일단 말씀을 드리는데 AI 입장에서 메모리에 필요한 성능이 속도와 용량입니다. 그래서 일단 제가 용량을 높이는 방법은 쌓자는 거예요, 아파트처럼. 땅 넓이가 정해져 있는데 우리가 많은 사람들이 도시 근처나 지하철역 근처에 살기 위해서는 건물을 지어야 되잖아요, 아파트처럼. 우리 제가 사는 대전은 그럴 필요 없습니다. 계룡산 밑에 나지막하게 살면 되는데 그러니까 쌓자라는 게 용량을 높이는 방법이라고 제가 90년대 말부터 생각을 한 거죠. 그 다음에는 속도를 높여야 되는데 속도는 우리 고속도로를 비유로 하면 차선이 많은 겁니다. 그다음에 차 속도를 200km, 100km 가던 거를 300km 가게 설계를 하는 거고 보통 우리 경부고속도로 차선이 8차선이다 그러면 저는 1024차선으로 처음부터 설계를 한 거예요.
요즘은 2048차선이고 저는 그게 100만 차선까지 가야 된다는데 경부고속도로 처음 지을 때 4차선만 해도 비용이 엄청 들었을 거 아니에요. 이게 필요하냐는 논란이 있을 수 있는데 저는 그런 시대가 올 거라고 생각하고 처음부터 1000차선을 짓자. 그러니까 많은 분들이 호응을 안 했던 것 같습니다. 그래서 그 두 가지, 그다음에 속도를 높이려니까 이렇게 쌓기도 하면 엘리베이터가 중요합니다. 데이터를 수직으로 해야 되니까. 그러니까 단층 건물 짓는 건축 기법하고 100층짜리 짓는 건축 기법과 철학은 완전히 다릅니다. 비용보다는 안정성 그다음에 그 고객 만족도 이런 게 다른 거죠. 지진에도 견뎌야 되고 태풍에도 견뎌야 되고 그런 거를 저희가 한 30년간 계속 연구해 왔는데 하여튼 그 2개 속도와 용량을 동시에 만족시킬 수 있는 방법은 HBM 구조밖에 없다고 저는 생각을 했던 거죠.
◇ 박성태> 그럼 적층, HBM 이게 기본적으로 메모리잖아요. DRAM 같은 메모리인데 그럼 DRAM 여러 개를 쌓아 놓아서 놓는 건데.
◆ 김정호> 예.
◇ 박성태> 근데 이게 마치 하나의 DRAM처럼 작동시키게 하는 게 말씀하신 엘리베이터가 그 안에 있는 것처럼 한다는 말씀이시군요.
◆ 김정호> 그렇습니다. 그리고 또 그 제어 장치가 또 HBM 안에 들어가서 바깥에서 보면 한 몸체처럼 보이게 그렇게 설계를 합니다.
◇ 박성태> 이게 그러면 옆에 여러 개를 놔두고 이렇게 전원주택처럼 쭉 피지 않고 아파트처럼 한 곳에 쌓는 것에 장점은 뭐가 있습니까?
◆ 김정호> 옆으로 쌓으면 데이터가 오고 갈 때 시간이 좀 걸립니다. 저희 아파트 옆에 대전에 신세계 백화점이 있는데 가려면 5분 정도 비 맞고 걸어가야 돼요. 근데 옆에, 그런데 쌓으면 그냥 엘리베이터 타고 바로 내려가서 그냥 장 보고 올라가면 되잖아요.
◇ 박성태> 그러네요.
◆ 김정호> 그러니까 이 엘리베이터가 있기 때문에 가능하긴 한데 버티컬 스테그를 하면 소통 시간이 훨씬 더 짧아집니다. 그러면.
◇ 박성태> 중간에 골목 같은 거 안 지나가도 되고.
◆ 김정호> 예, 그래서 AI를 사용할 때 HBM을 사용하면 단어 그러니까 우리가 챗GPT한테 보고서 써달라면 1초 만에 다 써주는 거니 속도가 빨라지는 겁니다.
◇ 박성태> 기본적으로 데이터를 처리해야 되니까 용량이 필요한데, 앞서 말씀하신. 속도라는 거는 이 GPU칩과 메모리 간의 데이터를 주고받는 속도.
◆ 김정호> 그렇습니다.
◇ 박성태> 이 통로가 기존 메모리에 비해서 HBM이 높이 쌓음으로써 엄청나게 빨라졌다는 거군요.
◆ 김정호> 그렇습니다.
◇ 박성태> 아무리 많이 갖고 있어도 칩이 메모리에게 시켰는데 CPU가, GPU가 뭘 시켰는데 얘가 늦게 갖다주면.
◆ 김정호> 지금은 과장되게 얘기하면 GPU가 90% 시간을 놀고 있습니다. 데이터가 메모리에서 안 와서. 그렇다는 거는 부가가치가 메모리의 속도에 비례한다고 볼 수 있겠습니다.
◇ 박성태> 그렇군요.
◆ 김정호> 그게 다 추론에서 오는 겁니다. 아까 말씀드린 것처럼 그걸 컨텍스트 엔지니어링이라고 그러는데요. 데이터를 빠르게 읽어와서 많이 정리한 다음에 지표에 보내는 게 더 중요해져 버렸습니다. 전에는 학습이 중요했더라면. 그런 것과 다 연관성이 있습니다.
◇ 박성태> 그러면 이 HBM 기술은 사실 하이닉스가 먼저 상용화했고 그다음에 삼성전자가 사실은 손을 안 댔다가 뒤에 들어오긴 했는데 다른 나라들이 추격할 가능성은 없습니까? 예를 들어서 마이크론이랄지.
◆ 김정호> 10년 후에는 모든 게 가능합니다. 일단 마이크론과 샌디스크가 있습니다. 샌디스크는 HBM은 안 했지만 HBF에 진심으로 지금 하고 있습니다. 낸드가 시장이 커지니까 이거를 또 용량을 넓히는 방법은 쌓는 방법밖에 없잖아요. 그래서 마이크론과 샌디스크가 어떻게 보면 엔비디아나 구글 입장에서 미국 기업이니까 또 한국에 올인하기에 좀 부담스럽지 않습니까? 지정학적으로. 그러니까 미국 회사를 키울 수 있는데 그 중에 하나가 마이크론이고요. 그중에 하나가 샌디스크입니다. 그래서 지금은 어쩔 수 없이 생산량이 삼성과 하이닉스가 훨씬 많고 성능이 또 제일 좋습니다. 삼성, 하이닉스 게. 그러니까 의존하지만 장기적으로는 아마 여러 기업으로 분산하려고 하지 않겠나, 그게 하나의 리스크고요. 또 하나는 삼성전자, 하이닉스 공장을 미국에 지으라고 자꾸 요구할 것 같습니다. 지정학적으로 가까이 있는 기업으로 하려고 그럴 것 같고요. 세 번째는 중국 기업들이 메모리를 조금씩 생산하고 있지 않습니까? 거기가 HBM을 또 만들기 시작하지 않을까. 그래서 우리가 정신을 잠시만 놓치면 언제든지 따라잡힐 수 있다. 이렇게 생각합니다.
◇ 박성태> 지금 그러면 후발 주자들 아직 안 오고 있지만 앞서 샌디스크 같은 경우는 HBF, F라는 GPU 말고 저쪽에 저장 장치를.
◆ 김정호> 낸드 플래시도 쌓자는 거죠.
◇ 박성태> 낸드를 HBM처럼 쌓자는 거죠. 그게 앞으로 필요하다는 게 교수님의 생각이신데.
◆ 김정호> HBM도 필요하고 HBF도 필요하다는 거예요.
◇ 박성태> 그 기업들과 우리나라 삼성, 하이닉스의 격차는 몇 년 정도로 봐야 될까요?
◆ 김정호> 한 3년 정도로 생각합니다. 근데 우리가 잠시 졸면 금방 따라잡히거든요. HBM, HBF 필요 없다고 생각한다든가 경영적인 실수라든가 또 요즘은 노사 문제도 있지 않습니까? 여러 가지가 결합되면 순식간에 유사 이래로, 우리 단군 이래로 최고의 기회가 날아갈 수도 있다 이렇게 생각합니다.
◇ 박성태> 사실 구글이나 메타, 아마존 보통 하이퍼 스케일러, 초거대 클라우드 사업자라고 그러더라고요. 이분들이 AI 데이터 센터들을 엄청나게 지어서 경쟁하는 친구들인 거죠?
◆ 김정호> 맞습니다.
◇ 박성태> 여기인데 말씀하신 내용은 AI 데이터센터는 사실은.
◆ 김정호> 메모리 공장이다.
◇ 박성태> HBM, GPU 그리고 낸드 플래시로 이어지는 메모리 공장이다.
◆ 김정호> 메모리 공장이다. 그리고 그 옆에 발전소가 있어야 되고.
◇ 박성태> 이건 전력 때문에요.
◆ 김정호> 예. 누가 돈을 대야 되고 그래서 AI 모델의 경쟁인 줄 알았더니 인프라와 자본의 에너지의 경쟁으로 지금 옮겨가고 있습니다.
◇ 박성태> 이거는 그러면 어느 정도가 사실은 되면 이 정도면 오픈 AI, 클로드든 예를 들어서 제미나이든 얼추 너희들이 일을 할 수 있는 메모리 용량은 갖춰졌잖아. 되는 건지 아니면 계속 기하급수적으로 늘어날 건지.
◆ 김정호> 저는 기하급수적으로 늘어난다고 봅니다. 그게 여러 가지 요소가 있는데 개인화 제 맞춤형으로 제작해 줘야 되고 멀티 모델로 가야 되고 또 하나는 미래에는 1인 기업이 AI 100개 에이전트 갖고 창업을 하는 시대가 될 것 같습니다. 그러면 고용이 안 되고 그런 사회적인 문제는 언제 기회 있을 때 다시 우리 논의하도록 하고요. 그러면 100배 정도는 필요하지 않겠나, 메모리가. 그런데 사용자가 또 100배 늘 수가 있습니다. 지금은 전 국민 중 아주 활동적으로 AI를 사용하는 분들이 11%에서 10% 정도 아닐까 싶어요. 하루 종일 AI 갖고 일 다 할 수도 있거든요, 미래에. 그러면 그걸 다 곱하면 미래에는 훨씬 더 많은 AI 메모리가 필요할 수 있는데 근데 그거를 지을 만한 자본이 있느냐, 전력 공급이 되느냐. 이런 리스크 요소는 있겠습니다. 그걸 우리 사람들이 버블이라고 하는데요. 그것이 없다면 계속 수요가 늘 수밖에 없습니다, 기술적으로는.
◇ 박성태> 돈과 공급의 문제지 수요는 무궁무진하다는 게 교수님 전망이시군요.
◆ 김정호> 그렇습니다.
◇ 박성태> 그러네요. 지금 안 쓰는 분도 쓰다 보고 또 쓰니까 AI 똘똘하네. 그러면 이것저것 시키다 보면 일이 많아지고 그 일은 사실은 GPU와 메모리가 하는 것이다.
◆ 김정호> 또 재밌는 현상이 AI 에이전트를 통해서 일을 대신하면 24시간 일하더라고요. 우리 대신에. 우리는 어쩌다가 챗GPT 한 번 쓰잖아요. AI가 계속 쓸 수 있습니다.
◇ 박성태> 프롬프트를 따로 안 줘도.
◆ 김정호> 안 줘도 일을 맡기면 그런 걸 자율형 AI 에이전트라고 그러는데요. 그런 에이전트를 우리가 100개 쓰면 이게 24시간 100개가 돌아가는 겁니다. 그래서 그걸 토큰 사용량이라고 그러는데 토큰 사용량이 또 메모리 용량을 키우고 이래서 생각보다는 상상 이상의 메모리 수요가 필요할 것 같습니다. 근데 거듭 말씀드리지만 그걸 누군가 사 줘야 되잖아요. 그만큼 AI 기업들이 부가가치를 창출하고 사람들에게 제 주머니에서 한 달에 100만 원, 1000만 원도 쓸 수 있어요, 한 달에. 그거를 기업이나 국가나 개인이 지불할 수 있느냐.
◇ 박성태> 그게 관건이다.
◆ 김정호> 그게 관건이고 근데 그 기업에서 1인당 1000만 원 쓰게 하려면 한 사람을 레이어프 시켜야 돼요.
◇ 박성태> 고용 문제가.
◆ 김정호> 예, 그런 게 가장 어려운 숙제가 될 거 같습니다.
◇ 박성태> 교수님 이야기 들으니까 미래가 조금씩 보이는 것 같은데 밝기도 하고 암울하기도 합니다. 다시 한번 제가 모셔서 시간이 되면 더 좀 미래 얘기 들어보고 싶습니다. 김정호 교수님이었습니다.
* 인터뷰를 인용보도할 때는 프로그램명 'CBS라디오 <박성태의 뉴스쇼>'를 정확히 밝혀주시기 바랍니다. 저작권은 CBS에 있습니다.