제2의 이루다 막으려면…"개인정보·AI윤리 법제 개선해야"

입력 2021-02-14 07:00
제2의 이루다 막으려면…"개인정보·AI윤리 법제 개선해야"

입법조사처 "AI 사전·사후 점검 필요…공공 데이터도 늘려야"



(서울=연합뉴스) 이효석 기자 = '제2의 이루다 사태'를 막으려면 개인정보 보호 및 인공지능 윤리 법제를 강화해야 한다는 연구 결과가 나왔다.

14일 IT업계에 따르면, 국회입법조사처 신용우·정준화 입법조사관은 15일 '이루다를 통해 살펴본 인공지능 활용의 쟁점과 과제' 보고서를 발간할 예정이다.

이루다는 지난해 12월 스타트업 스캐터랩이 페이스북 메신저를 기반으로 출시한 인공지능(AI) 챗봇이었다.

이루다는 20대 여성의 모습이었는데 출시 직후 성적 도구 취급에 시달리더니 사회적 약자·소수자를 향한 혐오 표현을 쏟아내 논란을 일으켰다.

이후 개발 과정에서 스캐터랩이 개인정보보호법을 위반한 정황이 드러나면서 서비스 3주 만에 운영이 중단됐다. 현재는 개인정보보호위원회가 조사를 벌이고 있다.

입법조사처 보고서는 "이루다 사례는 우리 삶에서 빠르게 확산하고 있는 인공지능이 초래하게 될 불완전성과 위험의 단면을 분명하게 보여준다"고 촌평했다.

보고서는 이루다가 AI 개발 과정에서 이용자들 개인정보가 오·남용될 수 있는 위험을 보여주는 사례라고 짚었다.

스캐터랩은 연애 분석 앱 '연애의 과학'과 '텍스트앳'으로 이용자들 카카오톡 대화를 수집했는데, 이 과정에서 포괄적이고 형식적인 개인정보 제공·활용 동의를 받아 개인정보보호법 위반 의혹을 샀다.

보고서는 "(스캐터랩은 '연애의 과학'으로) 개인정보를 수집할 때 모든 항목에 형식적으로 사전 동의하게 했다"며 "형식적인 동의는 정보 주체의 자기결정권을 보장하는 게 아니라 개인정보 처리자의 정당화 수단으로 사용된다"고 지적했다.



보고서는 개인정보 보호 법제를 개선해 개인정보 사전 동의의 실효성과 사후 통제 수단을 검토할 필요가 있다고 제시했다.

인공지능은 웹 크롤링 같은 기술로 자동으로 개인정보를 수집할 수도 있기 때문에 개인정보보호법 등으로 사전·사후 점검 장치가 있어야 한다는 것이다.

보고서는 정부가 지난해 말 발표한 '인공지능 윤리 기준'이 추상적이고 선언적이라면서, 기준을 더 구체화하고 검증 가능한 형태로 발전시켜야 한다고 꼬집었다.

미국 의회는 2019년 '알고리즘 책임 법안'을 발의해 알고리즘 편향성·차별성·프라이버시·보안 위험 등을 점검하도록 했다.

유럽 집행위원회(EC)는 지난해 발표한 '인공지능 발전과 신뢰를 위한 백서'에 고위험 분야 인공지능이 사전 적합성 평가를 받도록 하는 내용을 담았다.

보고서는 "미국·유럽 등의 입법·정책을 참고해 고위험 분야에는 사전 점검 체계를, 그 외 분야에는 자율규제 또는 품질 인증 체계를 검토할 필요가 있다"며 "사전 점검 방안으로는 투명한 정보 제공, 인간의 개입 등 실효성 있는 기준이 필요하다"고 제언했다.

보고서는 중소기업·스타트업이 충분한 데이터를 확보하기 어렵고 가명 처리 및 데이터 정제를 할 여력도 충분하지 않으므로, 정부가 인공지능 학습 데이터를 확보하기 위한 노력을 강화해야 한다고 덧붙였다.

hyo@yna.co.kr

(끝)

<저작권자(c) 연합뉴스, 무단 전재-재배포 금지>