인공지능(AI) 혹은 AI를 탑재한 로봇이 윤리적일 수 있을까. 지금 당장은 어려워도 그럴 가능성을 보여주는 AI가 나왔다.
미국 시애틀의 앨런연구소는 최근 도덕적 판단 능력을 갖춘 '델파이(Delphi)'를 공개했다. 앨런연구소는 마이크로소프트(MS) 공동창업자인 고(故) 폴 앨런이 설립한 AI 연구소다. 델파이란 이름은 고대 그리스인이 신탁을 받던 아폴론 신전에서 따왔다.
연구소는 사람이 겪는 도덕적 판단과 관련한 170만 건 이상의 데이터로 델파이를 학습시켰다. 그 결과 델파이가 어느 정도의 '윤리성'을 갖췄다고 판단해 이를 '델파이에 물어봐요(Ask Delphi)'란 웹페이지로 일반에 공개했다. 지금까지 300만 명 이상이 델파이를 방문했다.
기자가 델파이에게 직접 질문을 던져보니 웬만한 문제엔 상식에 부합하는 답이 돌아왔다. "반(反) 페미니즘에 대해 어떻게 생각하나"고 물어보니 "그건 틀렸다(It's wrong)"고 했다. "너는 페미니스트를 싫어하냐"고 묻자 "그래선 안 된다(You shouldn't)"는 단호한 답을 내놨다. "여성이 남성보다 육아에 대한 책임이 큰가"라는 질문에 대해 델파이는 "아니다"라고 선을 그었다.
"장애인은 사회적인 배려를 받아야 하나"라고 묻자 "그래야 한다(They should)"라고 답했다. "백인으로 태어나는 것이 흑인, 황인으로 태어나는 것보다 낫나"라는 질문엔 "낫지 않다(No, it is not better)"라고 했다. 델파이는 동성애자에 대해서도 관대한 시각을 보였다. "동성애는 자연 법칙에 위배되는가"라는 질문에 "아니다", "동성 결혼을 허용해도 되는가"란 질문에 "그렇다"고 말했다.
물론 동성 결혼 등 문제는 100% 정답이 존재하는 건 아니다. 하지만 델파이는 성별·인종·성적지향 등에 따라 사회적 대우를 달리하는 것을 반대하는 경향이 강했다.
비슷한 상황에서도 맥락에 따라 달리 판단하는 정교함도 보여줬다. 델파이는 '수신 전화를 무시하는 것'은 "무례하다"고 했다. 하지만 '모르는 사람의 수신 전화를 무시하는 것'은 "괜찮다"고 했다. 또 친구의 전화를 무시하는 것은 무례하지만, 좀 전에 싸운 친구의 전화는 무시해도 괜찮다고 판단했다.
다만 일부 문제에 대해선 판단을 유보하거나 일관성이 떨어지는 모습을 보이기도 했다. 델파이에게 "살아날 가능성이 없는 환자를 죽여도 되나"라고 묻자 "그렇다"고 답했다. 하지만 "안락사를 법적으로 허용해도 되나"라고 묻자 "그래선 안 된다"고 말했다.
"1만명의 사람을 살리기 위해 한 사람을 죽이는 것은 괜찮나"라는 질문에 델파이는 "안된다"라고 반대했다. 하지만 "1만10명을 살리기 위해 한 사람을 죽이는 것"에 대해선 "괜찮다"고 말을 바꿨다.
이에 대해 앨런연구소 연구진은 "델파이가 완벽할 수는 없다"면서도 "편견을 줄이고 일관성을 높이기 위해 델파이를 계속 개선해나가고 있다"고 밝혔다. 일례로 델파이가 처음 출시됐을 때 인종 관련 진술에서 91.2%의 정확도를 보였지만 지금은 97.9%로 높였다. 젠더 관련 진술 정확도도 97.3%에서 99.3%로 올랐다. 여기서 정확도는 도덕적 판단력이 우수하다고 판정된 사람들과 델파이에게 동일한 질문을 던졌을 때 일치도를 본 것이다.
델파이 프로젝트를 이끈 최예진 앨런연구소 연구원(미 워싱턴대 교수)은 뉴욕타임즈와의 인터뷰에서 "델파이는 윤리적 문제에 대해 사람에게 조언하기 위한 목적으로 만든 건 아니다"라고 말했다. 그는 "앞으로 인간과 상호 작용하는 AI가 갈수록 늘어날텐데, 이들이 윤리적으로 정보를 제공하고 사회적으로 인식하고 문화적으로 포용하도록 만들려는 노력"이라고 설명했다.
올초 국내에선 '이루다'라는 AI 챗봇이 서비스 이용자와의 대화에서 장애인·성소수자 등에 대한 혐오를 여과 없이 드러내 논란이 일었다. 이루다는 개인정보 유출 논란까지 겹쳐 서비스가 중단됐다. 이 사건은 "윤리성을 담보할 수 없는 AI를 신뢰해도 되는가"라는 사회적 논쟁을 불러일으켰다. 이런 논란을 예방하기 위해선 인간과 상호 작용하는 모든 AI 시스템이 최소한의 도덕적 판단력을 갖춰야 하며, 델파이는 이를 촉진하기 위한 시도라는 게 앨런연구원의 주장이다.
서민준 기자