LG, 이미지 설명하는 '캡셔닝 AI' 국제 학회서 첫 공개
처음 보는 이미지도 자연어로 설명…이미지 1만장 2일 내 작업
(서울=연합뉴스) 김아람 기자 = LG AI연구원은 캐나다 밴쿠버에서 열리는 세계 최대 컴퓨터 비전 학회 'CVPR 2023'에서 이미지를 설명하는 '캡셔닝 인공지능(AI)'을 공개했다고 19일 밝혔다.
연구원이 처음 외부에 공개한 캡셔닝 AI는 처음 보는 이미지도 자연어로 설명할 수 있는 AI다. 이미지 검색에 활용할 수 있는 정보인 문장이나 키워드 등 메타 데이터를 생성한다.
AI가 인간처럼 처음 보는 물체나 장면에 대해서도 이전의 경험과 지식을 활용해 이해하고 설명할 수 있도록 '제로샷 이미지 캡셔닝' 기술을 적용했다.
이 기술은 AI가 기존에 학습한 대량의 이미지와 텍스트 데이터를 기반으로 배경·인물·행동 등 이미지상 다양한 특징을 인식하고 그 관계를 설명하게 한다.
캡셔닝 AI는 평균적으로 문장 5개와 키워드 10개를 10초 안에 생성한다. 이미지 범위를 1만 장으로 확장하면 2일 이내에 작업을 끝낼 수 있다.
따라서 이미지를 대량으로 관리해야 하는 기업들의 업무 효율성과 생산성을 높일 수 있다고 연구원은 설명했다.
LG AI연구원은 캡셔닝 AI 개발을 위해 세계 최대 콘텐츠 플랫폼 기업 셔터스톡과 긴밀하게 협력했다.
세잘 아민 셔터스톡 최고기술책임자(CTO)는 "현재 글로벌 고객사 10곳을 대상으로 '얼리 액세스'(앞서 해보기) 프로그램을 진행하며 캡셔닝 AI 기술을 발전시켜 나가고 있다"고 전했다.
LG AI연구원은 캡셔닝 AI의 기반 기술인 제로샷 이미지 캡셔닝을 주제로 서울대 AI대학원, 셔터스톡과 함께 워크숍도 열었다.
김승환 LG AI연구원 비전랩장은 "이미지 캡셔닝 분야의 글로벌 연구 리더십을 확보하기 위해 다양한 파트너와 유기적인 협력 체계를 구축해 새로운 평가 지표 개발과 신기술 연구를 계속 추진할 계획"이라고 말했다.
rice@yna.co.kr
(끝)
<저작권자(c) 연합뉴스, 무단 전재-재배포 금지>