‘한국은 그래픽처리장치(GPU) 물량 공세에서 이길 수 없다.’
글로벌 대규모언어모델(LLM) 경쟁에서 한국이 받은 현실적인 진단이다. 연산 자원이 부족한 상황에서 글로벌 빅테크 중심의 ‘스케일 경쟁’에 맞서기 어렵다는 것이다. 하지만 최근 이런 제약을 극복할 수 있는 기술이 국내에 등장해 주목받고 있다. 세계 최고 권위의 인공지능(AI) 학회에서 채택된 네이버클라우드 ‘Peri-LN(페리-엘엔)’이 대표적이다.
네이버클라우드는 LLM의 학습 안정성을 획기적으로 높여주는 이 기술을 오는 7월 ‘2025 국제머신러닝학회(ICML)’에서 발표한다고 27일 밝혔다. Peri-LN은 모델 구조를 단순히 조정하는 것만으로도 학습 실패를 줄이고 LLM이 일관된 성능을 유지하도록 하는 새로운 방식이다. 복잡한 설정이나 고가 장비 없이도 안정적인 훈련이 가능하다는 점이 특징이다.
초거대 AI 모델은 훈련 도중 내부 계산 수치가 지나치게 커지거나 ‘스파이크’(급격한 값 변화) 현상이 발생하기 쉽다. 이렇게 되면 학습이 멈추거나 시스템이 재시작되는 일이 반복된다. 메타가 개발한 LLM ‘OPT’의 경우 하루 40번 이상 시스템을 재시작했다는 내부 사례가 알려져 있다. 네이버클라우드가 개발한 Peri-LN은 이런 불안정 문제를 줄이기 위한 새로운 설계 방식이다.
일각에선 최근 LLM 경쟁의 핵심 축이 ‘모델 크기’에서 ‘학습 완성도’로 옮겨가고 있다는 평가도 나온다. 단순히 큰 모델을 구축하는 것을 넘어 얼마나 안정적이고 효율적으로 학습을 끝까지 수행하는지가 핵심 경쟁력으로 떠오르고 있다. 구글, 메타 등 글로벌 빅테크도 최근 비슷한 정규화 기법을 도입하며 모델의 학습 안정성을 높이기 위한 기술 개발에 속도를 내고 있다. 이동수 네이버클라우드 전무는 “Peri-LN 같은 기술이야말로 ‘소버린 AI’를 구현하는 데 필요한 연료”라고 강조했다.
특히 GPU 자원이 절대적으로 부족한 한국처럼 효율적인 AI 훈련이 중요한 국가에서는 이 같은 기술의 가치가 더욱 크다는 분석이 나온다.
안정훈 기자 ajh6321@hankyung.com