안전하고 신뢰할 수 있는 인공지능(AI) 사용을 위한 연구 전담 조직인 ‘AI 안전연구소’가 문을 열었다.
과학기술정보통신부는 27일 경기 성남시 판교 글로벌연구개발(R&D)센터에서 AI 안전연구소 개소식을 열었다. AI 안전연구소는 AI의 기술적 한계와 인간의 오용, 통제력 상실 등으로 일어날 수 있는 위험에 체계적·전문적으로 대응하기 위해 설립된 연구 전담 조직이다. 산학연 기관이 AI 안전 분야 연구 협력과 정보 교류를 하는 허브이자 10개국이 참여 중인 ‘국제 AI 안전연구소 네트워크’의 일원이다. AI 안전 분야의 경쟁력 있는 기술과 인력을 육성하고, 과학적 연구 데이터에 근거한 AI 안전 관련 정책을 개발한다. 연구소는 AI 안전 정책 및 대외협력실, AI 안전평가실, AI 안전연구실 등 3실로 이뤄졌다. 내년까지 직원 30명 규모로 구성하는 것이 목표다.
김명주 AI 안전연구소장은 연구소의 역할을 히말라야 등반을 돕는 ‘셰르파’에 빗대 설명했다. 그는 “연구소는 규제 기관의 성격이 아니라 국내 AI 기업이 글로벌 경쟁력을 확보하는 데 장애가 되는 위험 요소를 최소화하도록 지원하는 협력 기관 역할을 할 것”이라고 강조했다. 류광준 과기정통부 과기혁신본부장은 “AI 안전연구소가 아·태 지역을 대표하는 AI 안전 연구 허브로 발전해나갈 수 있도록 적극적으로 지원하겠다”고 말했다.
개소식에 이어 대한민국 AI 안전 컨소시엄 협약식도 열렸다. AI 안전에 관한 정책 연구와 평가, 연구개발에 상호협력하기 위한 업무협약을 맺었다. 네이버, KT, 카카오, LG AI연구원, SK텔레콤, 삼성전자와 서울대, KAIST, 고려대 등 기업계와 학계 24곳이 참여했다. 참여 기관은 AI 안전연구소와 함께 AI 안전 프레임워크 연구, AI 안전 관련 국제규범 대응 등에 협업한다.
이승우 기자 leeswoo@hankyung.com