SK텔레콤 A.X K1 모델을 사용하고 있다. SK텔레콤 제공SK텔레콤은 자사 인공지능 연구조직인 '정예팀'이 매개변수 5190억개(519B) 규모의 초거대 AI 모델 'A.X K1(에이닷엑스 케이원)'의 기술 보고서를 오픈소스 플랫폼 허깅페이스에 공개했다고 7일 밝혔다.
에이닷엑스 케이원은 국내에서 처음으로 500B(5천억 개)를 넘는 매개변수를 갖춘 초거대 언어모델이다. SKT 정예팀은 이날 "4개월여의 짧은 개발 기간과 제한된 GPU자원에도 효율을 극대화한 설계로 국내 첫500B 이상 초거대 모델을 완성했다"며 "딥시크 V3.1 등 글로벌 오픈소스 초거대 모델과 비교해 유사하거나 더 높은 수준의 성능을 확인했다"고 밝혔다.
정예팀에 따르면 에이닷엑스 케이원은 주요 벤치마크에서 중국 딥시크의 '딥시크-V3.1' 등 글로벌 모델과 유사하거나 더 높은 성능을 달성했다. 특히 수학과 코딩 등 복잡한 연산과 추론을 해야 하는 분야에서 성능을 입증했다.
일반적으로 모델 크기가 커질수록 학습 시간과 연산 자원이 기하급수적으로 늘어나지만, 정예팀은 경쟁 모델보다 최소 2배 이상 큰 규모를 유지하면서도 성능 저하 없이 안정적인 결과를 냈다는 평가다.
에이닷엑스 케이원은 AI의 수학 문제 해결능력을 측정하는 'AIME25' 벤치마크에서 89.8점을 받아 딥시크-V3.1모델(88.4점) 대비 102% 수준으로 앞섰다. AIME25는 미국 고등학생 수학 올림피아드 문제로 AI의수학 실력을 측정한다.
코딩 활용 벤치마크인 '라이브코드벤치'에서도 영어 기반 75.8점, 한국어 기반 73.1점을 기록하며 실시간코딩 문제 해결 능력을 입증했다. 이는 영어 기반 69.5점, 한국어 기반 66.2점을 받은 딥시크-V3.1 대비 각각 109%, 110% 수준이다.
에이닷엑스 K1은 전체 519B 매개변수 중 일부만 선택적으로 활성화하는 구조를 적용해 효율성을 높였다. 입력 데이터에 따라 약 33B 규모만 작동하도록 설계된 '전문가 혼합(MoE)' 방식을 채택해 연산 부담을 줄이면서도 성능을 유지했다. 이는 여러 개의 소형 전문 모델 중 가장 적합한 모델을 골라 문제를 처리하는 방식이다.
또 한 번에 최대 128K 토큰의 긴 문맥을 처리할 수 있어, 한국어 기준으로는 약 10만 단어 분량의 텍스트도 동시에 분석할 수 있다. 소설 한 권이나 기업의 연간 보고서 전체를 한 번에 검토할 수 있는 수준이다.
SKT는 올해 중 에이닷엑스 K1에 멀티모달 기능을 추가하고 조 단위 파라미터로 확대할 계획이다.