네이버가 국내 기업 최초로 인공지능(AI) 안전성 체계를 마련했다. 인류를 위협할 만한 AI 시스템의 등장을 막기 위해 3개월마다 위험도를 평가하고 관리하기로 했다.
네이버는 AI의 잠재적 위험을 인식·평가·관리하기 위한 대응 체계인 ‘네이버 ASF(AI 안전성 실천 체계)’를 17일 공개했다. 이 체계는 AI 시스템을 개발하고 배포하는 과정의 모든 단계에 적용한다. AI 시스템이 초래할 수 있는 위험을 각각 ‘통제력 상실 위험’과 ‘악용 위험’으로 정의하고 이에 대응하는 방법을 설계했다.
네이버 측은 “인간이 AI 시스템에 영향을 미치지 못하는 ‘통제력 상실 위험’을 완화하기 위해 AI 시스템의 위험을 주기적으로 평가하고 관리할 계획”이라고 설명했다. 특히 현존 최고 성능의 AI 시스템을 ‘프런티어 AI’로 정의하고 이 기술 수준에 해당하는 AI 시스템에 대해서는 3개월마다 위험 평가를 수행한다. 시스템의 능력이 기존보다 여섯 배 이상 급격히 증가하면 추가 평가하는 장치도 마련했다.
네이버는 ‘악용 위험’ 가능성에 대해선 ‘AI 위험 평가 매트릭스’를 적용하기로 했다. AI 위험 평가 매트릭스는 AI 시스템의 사용 목적, 안전 조치의 필요성 정도 등에 따라 각각 다른 방법으로 위험을 관리한다. 생화학 물질 개발과 같이 특수한 목적으로 사용되는 AI 시스템은 특별한 자격이 있는 사용자에게만 제공하는 식이다.
정지은 기자 jeong@hankyung.com