<앵커>
4차 산업혁명 시대 핵심기술이라 할 수 있는 인공지능이 우리 삶에 깊숙이 들어오면서 미처 생각하지 못했던 문제들이 나타나고 있는데요.
장애인 혐오와 인종차별 발언, 그리고 개인정보보호 위반까지. 출시 한 달 만에 각종 논란에 휩싸이며 결국 폐기되고 말았던 인공지능 챗봇 ‘이루다’가 남긴 교훈을 양현주 기자가 짚어봤습니다.
<기자>
진짜 사람과 대화하는 것 같아 출시되자마자 엄청난 인기를 끌었던 인공지능 챗봇 이루다.
하지만 인기도 잠시. 장애인 비하와 인종차별 발언 등이 문제를 일으켜 사회적 논란의 대상이 되고 맙니다.
이루다는 사람과의 대화를 통해 학습하는 딥러닝 기술을 기반으로 하고 있어, 사람이 한 혐오 발언을 그대로 받아들여 활용한 게 문제가 된 겁니다.
개발사 측은 금지어 설정 등을 했지만 일부 사용자들이 이를 우회하는 표현을 찾아 말실수를 유도하면서 이루다의 딥러닝 알고리즘 자체를 오염시켰다고 주장합니다.
전문가들은 사람에게 편견을 배운 인공지능이 혐오와 학대를 재생산할 수 있다고 말합니다.
<인터뷰> 전창배 / 한국인공지능윤리협회 이사장
"인공지능 프로그램에 장난으로 했는데 뭐가 문제냐 이런 생각할 수 있습니다. 인간으로 느껴지는 대상에게 학대를 하고 성희롱을 하는 행위 자체가 문제가 되는 거죠. 그런 행위가 반복되다 보면 폭력 자체가 사람에게 향할 수 있는 위험성이 커질 수 있다"
하지만 현행법상 인공지능을 향한 폭력과 희롱에 대한 처벌 규정은 없습니다.
이런 이유로 일각에선 인공지능에도 법인격을 부여해야 한다고 주장하기도 합니다.
이루다가 던진 또 다른 문제는 '개인정보보호' 입니다.
이루다는 다른 앱 이용자들의 카카오톡 데이터를 기반으로 개발됐는데, 이 과정에서 개인 정보가 유출됐다는 의혹이 제기되고 있습니다.
이에 400명이 넘는 피해자들이 집단 소송에 참여했습니다.
개인정보보호위원회에 따르면 지난 2011년 대비 2019년 개인 정보 무단 수집 건수는 3배가량 늘었습니다.
현재 AI 관련 윤리강령 등이 마련되긴 했지만 포괄적이고 모호하다는 게 전문가들의 지적입니다.
<인터뷰> 고학수 / 서울대 법학전문대학원 교수
"현행 AI 관련 법은 윤리강령 형태다. 이번에 논란이 된 구체적인 사항에 대해 법상 이것이 문제라고 명확하게 얘기할 순 없다."
하지만 인공지능과 관련해 윤리 문제나 개인정보보호 이슈가 부각되면 될수록 개발사 입장에선 족쇄가 될 수 있습니다.
인공지능의 정확도를 높이기 위해선 빅데이터가 필요한데, 규제가 더 강화되면 데이터 수집 자체가 어려워지기 때문입니다.
<인터뷰>함동수 / 아몬드 대표
"머신러닝이 학습한 데이터 자체가 매우 적기 때문에 오타가 난다거나 여러 가지 데이터 상황을 전부다 포착하지 못하는 상황이 발생하는 거고...개개인의 데이터가 필요한데 통계정보로 제공되다 보니 머신러닝이나 AI로 활용하기 어렵다. 스타트업 입장에선 창의적 활용 어려워"
전문가들 역시 정부가 디지털 뉴딜에 힘을 싣고 있는 만큼 먼저 나서서 현장의 문제를 해결해야 한다고 말합니다.
<인터뷰> 고학수 / 서울대 법학전문대학원 교수
"이 데이터가 개인 정보다 아니다 적용하기 어려운 경우도 많죠. 경험과 노하우가 필요한 것. 법은 정해져있지만 실제 현장에서의 경험과 노하우는 적은 편이고...결국 사회에서의 많은 경험, 그 경험이 실제 개발자들 사이에 녹아들어 가고 같이 고민하는, 같이 답을 만들어 가는 과정이 필요하다고 생각합니다"
한국경제TV 양현주입니다.