유사 지적은 인퍼런스 코드에 국한
"프롬 스크래치 원칙 훼손 아냐"

(서울=연합뉴스) 박형빈 기자 = SK텔레콤[017670]은 정부의 '독자 AI 파운데이션 모델 개발 프로젝트'에 제출한 초거대 AI 모델 'A.X K1'이 중국 모델 '딥시크'와 유사하다는 지적에 대해 "구조적으로 상이하다"고 해명했다.
SKT는 8일 공식 입장에서 "A.X K1은 5천190억개의 동일한 파라미터 수가 세계적으로 보고된 적 없는 독자적 구조를 가진 모델"이라며 이같이 밝혔다.
앞서 이날 업계 일각에는 A.X K1이 딥시크의 핵심 아키텍처로 알려진 MLA와 MoE 세부 설정값이 딥시크 V3 모델과 유사하다는 주장이 제기됐다.
SKT는 "딥시크와 유사하다고 언급한 부분은 '인퍼런스 코드'로, 공개된 모델을 실행할 때 편의를 위해 지원하는 코드"라고 설명했다.
이어 "이는 '프롬 스크래치'에서 독자성을 이야기하는 학습 코드와 구별되며, 인공지능 업계도 이를 프롬 스크래치 훼손 요소로 보고 있지 않다"고 강조했다.
프롬 스크래치는 AI 모델 맨 첫 단계부터 모두 직접 구축하는 방식을 말한다.
SKT는 "A.X K1은 가중치 면에서 모든 파라미터를 임의 초기화한 상태에서 학습한 모델로, SKT 정예팀이 독자 개발한 모델"이라고 덧붙였다.
이승현 포티투마루 부사장도 이날 페이스북에 A.X K1과 관련해 "딥시크의 MLA와 젬마의 듀얼 놈 등을 차용했지만, 양적 확장을 통해 최적화했다"며 "프롬 스크래치 이상의 가치를 보여줬다"고 평가했다.
이런 논란은 독자 파운데이션 모델 경쟁에 참여 중인 다른 기업에도 유사하게 제기되고 있다.
업스테이지는 중국 지푸AI의 'GLM-4.5-에어' 모델을 도용했다는 의혹을 받았으나, 인퍼런스 코드 스타일을 참조한 것일 뿐이며 오픈소스 호환성을 위한 표준적 방식이라는 입장을 내놨다.
네이버클라우드 역시 멀티모달 AI 모델의 핵심 구성요소인 인코더와 가중치를 중국 알리바바의 '큐웬 2.5' 모델에서 차용했다는 논란이 불거졌으나, 네이버는 프롬 스크래치 원칙을 훼손한 것은 아니라고 해명했다.
binzz@yna.co.kr
(끝)
<저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지>
