코난테크 "정확도 높이고 비용 줄인 거대언어모델 자체개발"

입력 2023-08-17 14:18
코난테크 "정확도 높이고 비용 줄인 거대언어모델 자체개발"

"문서 초안 생성 특화 AI '코난LLM' 개발…B2B·B2G 지향"



(서울=연합뉴스) 조성미 기자 = 인공지능(AI) 소프트웨어 기업 코난테크놀로지[402030]는 17일 매개변수(파라미터) 수를 줄이고 AI 학습에 쓰인 데이터 토큰(어절) 수를 늘려 저비용 고성능을 추구한 거대 언어 모델 '코난 LLM'을 자체 개발했다고 밝혔다.

코난테크놀로지는 이날 여의도 콘래드 서울 호텔에서 기자간담회를 열어 이같이 밝히고, 보고서 등 문서 초안 생성에 특화된 기업 대 기업(B2B), 기업 대 정부(B2G) 특화 거대 언어 모델을 공급할 계획이라고 설명했다.

코난 LLM은 토큰 4천920억개를 학습했고 이 가운데 한국어 학습량은 2천840억개다. 이 회사가 오는 11월 내놓을 모델은 전체 학습 토큰 7천억개, 한국어 토큰 3천220억개를 목표로 하고 있다.

코난테크놀로지에 따르면 다음 주 공개를 앞둔 네이버 하이퍼클로바X의 전 모델 하이퍼클로바의 한국어 토큰 학습량이 5천690억개, 챗GPT 5억7천만개, 메타의 오픈소스 AI LLaMA2 12억개다.

코난테크놀로지는 "2007년부터 국내외 실시간 데이터를 수집·분석한 '펄스K'를 토대로 AI 학습 대상 문서 205억건을 확보하고 이 중 트위터나 뉴스 댓글 등 단문을 제외한 20억건의 고품질 데이터를 학습해 답변 정확도 등 성능을 높였다"고 강조했다.

학습 데이터양을 늘리고 매개변수 수를 간소화해 AI 모델을 이용하는 회사 또는 기관의 컴퓨팅 비용을 줄였다는 설명이다.

코난 LLM의 매개변수 수는 131억 개, 410억개 두 가지 버전으로 제공된다. 챗GPT 매개변수 수 1천750억개, 네이버 하이퍼클로바 2천40억개의 10∼20% 수준이다.

코난테크놀로지는 "프롬프트 엔지니어가 만든 템플릿을 사용해 이용자가 간단한 문구 입력 만으로 4천자까지 문서를 생성할 수 있고 생성 중 추가적인 질의, 첨삭 및 참고 자료 생성도 가능하다"고 덧붙였다.

코난테크놀로지는 기업 서버에 거대 언어 모델을 개별 구축(온프레미스)하는 AI를 제공해 기업·기관의 데이터 유출 우려를 낮추고 데이터가 오픈소스 AI 모델 학습에 사용되는 것을 원천적으로 막을 수 있다고 했다.

한편, 코난 LLM 외에도 최근 엔씨소프트[036570]가 국내 게임사 최초로 AI 모델 'VARCO(바르코) LLM'을 공개하는 등 국내 정보기술업계가 자체 개발한 거대 언어 모델이 속속 발표되고 있다.

오픈AI의 GPT 시리즈 등 해외 AI 모델을 국내 업계·기관이 응용프로그램 인터페이스(API) 방식으로 사용할 경우 데이터 유출이나 기술 종속 우려 등이 제기되고, 메타의 LLaMA 시리즈 등 공개된 AI 모델의 경우 한국어 성능이 낮다는 한계가 지적된 데 따른 흐름으로 분석된다.

임완택 코난테크놀로지 전략기획본부장은 "1천억개 이상의 데이터 학습 군과 100억개 이상의 매개변수로 학습한 모델을 자체 개발했을 경우 LLM 개발에 성공했다고 말할 수 있다"고 설명했다.

그는 "데이터 1천억개 이상이면 책 200만권에 이르는 방대한 분량으로, 모든 기업이 충분한 데이터를 보유할 수 없기 때문에 오픈 소스 AI 모델에 기반해 금융·법률 등 특화 분야 데이터를 추가 학습시키고 특화 LLM·챗봇 등을 개발했다고 하는 경우도 있다"고 부연했다.

csm@yna.co.kr

(끝)

<저작권자(c) 연합뉴스, 무단 전재-재배포 금지>