연합뉴스SK하이닉스가 미국 샌디스크와 손잡고 차세대 낸드플래시 제품으로 꼽히는 고대역폭플래시(HBF)의 글로벌 표준화 작업에 본격 착수했다.
초고속이지만 용량이 제한적인 고대역폭메모리(HBM)와, 대용량이지만 상대적으로 속도가 느린 솔리드스테이트드라이브(SSD)의 장점을 결합해 향후 폭발적으로 성장할 인공지능(AI) 추론 시장을 선점하겠다는 전략이다.
SK하이닉스는 샌디스크와 25일(현지시간) 미국 캘리포니아주 밀피타스에 위치한 샌디스크 본사에서 'HBF 스펙 표준화 컨소시엄 킥오프' 행사를 열고, AI 추론 시대를 겨냥한 공동 표준화 전략을 발표했다.
양사는 세계 최대 개방형 데이터센터 기술 협력체인 오픈컴퓨트프로젝트(OCP) 산하에 HBF 전담 워크스트림을 공동 구성해 기술 사양 정립과 생태계 확산에 나설 계획이다.
최근 AI 산업의 무게중심은 대규모언어모델(LLM)을 학습시키는 '트레이닝' 단계에서 실제 서비스를 운영하는 '추론' 단계로 빠르게 이동하고 있다. 수많은 이용자가 동시에 AI 서비스를 사용하는 환경에서는 대량의 데이터를 빠르게 처리하면서도 전력 효율을 확보할 수 있는 메모리 구조가 필수적이다.
현재 최고 사양의 AI 서버를 보면 연산을 담당하는 그래픽처리장치(GPU) 옆에 초고속 메모리인 HBM이 직접 붙어 있다. HBM은 데이터 처리 속도가 매우 빠르지만 저장 용량이 작고 가격이 높다는 한계가 있다. 반면 데이터를 장기간 보관하는 창고 역할의 SSD는 용량이 크고 비용이 낮지만, 속도가 상대적으로 느려 대량 데이터를 GPU로 전달할 때 병목 현상이 발생할 수 있다.
HBF는 이 두 메모리 사이에 위치하는 새로운 계층으로, HBM의 높은 대역폭과 SSD의 대용량 특성 사이의 간극을 메우는 역할을 한다. 즉, GPU와 더 가까운 위치에서 대용량 데이터를 보다 빠르게 공급해 추론 단계에서 요구되는 용량 확장성과 전력 효율을 동시에 확보하는 것이 목표다.
특히 HBF를 포함한 복합 메모리 구조는 AI 시스템 확장성을 높이면서도 총소유비용(TCO)을 낮출 수 있는 대안으로 거론된다. 업계에서는 2030년 전후로 AI 추론 인프라 수요가 본격 확대되면서 관련 메모리 솔루션 시장도 빠르게 성장할 것으로 보고 있다.
AI 인프라 경쟁이 단일 칩의 성능을 넘어 CPU·GPU·메모리·스토리지를 아우르는 시스템 최적화로 확대되는 가운데, HBM과 HBF를 함께 제공할 수 있는 종합 메모리 기업의 역할도 더욱 중요해질 전망이다.
SK하이닉스와 샌디스크는 HBM과 낸드 분야에서 축적한 설계·패키징 기술과 대량 양산 경험을 바탕으로 HBF의 표준화와 상용화를 선제적으로 추진한다는 방침이다.
안현 SK하이닉스 개발총괄 사장은 "AI 인프라의 핵심은 단일 기술의 성능 경쟁을 넘어 생태계 전체 최적화에 있다"며 "HBF 표준화를 통해 협력 기반을 마련하고, AI 시대에 최적화된 메모리 아키텍처를 제시하겠다"고 말했다.