국가대표 인공지능(AI) 프로젝트에 출전한 네이버(하이퍼클로바X), 업스테이지(솔라), LG AI연구원(엑사원). 이들 기업이 개발한 대규모언어모델(LLM)의 공통점은 스타트업 베슬AI의 플랫폼을 통해 LLM 성능 최적화를 진행하고 있다는 것이다.
안재만 베슬AI 대표(사진)는 19일 “고객사들이 베슬AI의 솔루션 덕분에 그래픽처리장치(GPU) 클라우드 운영비를 70% 절감했다”며 “1년에 50억원 정도 들던 것을 10억~15억원까지 낮춰준 셈”이라고 강조했다. 베슬AI는 AI ‘오케스트레이션’ 솔루션을 개발하는 스타트업이다.
오케스트라에서 지휘자가 여러 악기를 동시에 맞춰 연주하게 하듯 LLM·이미지 인식·검색 등 다양한 AI 모델을 조화롭게 묶어 서비스 성능을 극대화하는 ‘파인튜닝’ 솔루션을 제공 중이다. 현대자동차, KT, 뤼튼 등을 고객사로 확보했다.
최근 안 대표는 오케스트레이션에서 한발 더 나아갔다. AI 연산이 이뤄지는 데이터센터 안에서 GPU가 효율적으로 동작하도록 하는 솔루션을 개발한 것이다. 회사는 AI 연산 중 ‘놀고 있는’ GPU 개수를 최소화하는 목표를 달성했다.
안 대표는 AI 서비스가 효율적으로 구동될 수 있는 궁극의 솔루션을 ‘에이전틱 AI’로 보고 있다. 그는 “자동 진화하는 AI 시스템을 만들 수 있을 것”이라고 예측했다. 베슬 AI는 에이전틱 AI를 구현할 수 있는 가능성을 확인한 상태다. 고객사와 협업해 기능을 고도화하는 데 집중하고 있다. 올해 설립한 미국 지사에서도 이 사업을 가속화하려는 시도를 진행 중이다. 안 대표는 “앞으로 GPU-LLM-에이전틱 AI가 하나의 파이프라인으로 움직이는 기술을 실현할 것”이라고 말했다.
강해령 기자 hr.kang@hankyung.com