[AI픽] SKT 독자 AI, 텍스트 넘어 이미지·음성까지 간다
2단계서 멀티모달 기능 순차 도입
학습 언어 5개로 확대, 연구진도 보강
(서울=연합뉴스) 박형빈 기자 = 정부의 '독자 AI 파운데이션 모델' 사업 2단계에 진출한 SK텔레콤[017670]은 초거대 모델 'A.X K1'에 이미지 데이터를 시작으로 멀티모달 기능을 단계적으로 적용하겠다고 16일 밝혔다.
이에 따라 논문이나 업무 문서 등 이미지 형태의 자료를 인식해 텍스트로 변환·요약하는 기능이 가능해질 전망이다.
올 하반기 이후에는 음성과 영상 데이터까지 처리할 수 있도록 기능을 확장할 계획이다.
SK텔레콤은 모델 성능 향상을 위해 학습 데이터 규모를 1단계보다 확대하고, 학습 언어도 한국어·영어·중국어·일본어·스페인어 등 5개 언어로 늘릴 방침이다.
연구진 구성도 확대됐다. 기존 참여 8개 기관에 더해 KAIST 인공지능대학원 서민준 교수 연구실과 서울대 수리과학부 서인석 교수 연구실이 합류했다.
SK하이닉스[000660], SK이노베이션[096770], SK AX, SK브로드밴드 등 SK그룹 계열사와 한국고등교육재단, 최종현학술원 등 20여개 기관은 단계적으로 정예팀 모델을 활용할 예정이다.
앞서 SK텔레콤은 전날 진행된 1차 평가에서 5개 정예팀 중 통과한 3개 팀에 포함됐다.
특히 SK텔레콤은 NIA 벤치마크 평가에서는 수학, 지식, 장문 이해, 신뢰성, 안전성 등 항목을 종합 평가해 10점 만점 기준 9.2점을 기록했다. LG AI연구원과 동일한 점수다.
binzz@yna.co.kr
(끝)
<저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지>