간단한 규칙 학습과 기초 증거 조사 자동화
2019년 에스토니아는 소액 민사재판(7천 유로, 한화 약 950만원 미만)에 대하여 AI 판사를 시범 도입하겠다고 발표했다. 물론, 7천 유로 이상의 배상액이 나올 경우 인간 판사가 나선다. 소액 민사재판은 절차나 유형이 정형화 되어 있어서 간단한 규칙의 학습과 기초적인 증거의 분류와 검색을 비교적 쉽게 자동화시킬 수 있으며, 법적 분쟁 우려도 낮다고 판단해서 나온 결정이다. 당시 법무장관은 AI 판사의 도입 목적을 국민에게는 신속한 법률서비스를 제공하고 판사에게는 좀 더 크고 중요한 사건에 집중하도록 하기 위해서라고 밝혔다.급증하는 법률서비스 수요 대처 및 업무 효율성 향상
머신러닝에 기반한 또 다른 서비스로 법원의 판례 데이터를 머신러닝으로 학습한 후 개별 사건에 대한 법원의 판단을 예측하는 것이다. 대표적인 연구는 2017년 Katz 교수팀이 수행한 것인데, 미국 연방 대법원 판례 2만8000건(1816년~2015년)을 머신러닝을 통해 학습하고 법원의 판단을 예측한 것이며, 그 정확도는 70.2%에 달했다. 머신러닝의 결과를 이용해 법원의 판단을 어느 정도 예측할 수 있다면 그 자체만으로도 기업 및 개인에게 큰 도움이 될 수 있다.
이렇듯 소송의 결과가 확실한 사건은 사전에 합의하고, 불필요한 소송은 자연스럽게 줄어드는 현상이 확대되면, 급증하고 있는 국민의 법률서비스 수요도 대응할 수 있을 것이다. 소비자뿐만 아니라 공무원들도 법규 집행과 해석에 AI 판사 알고리즘을 이용해 업무 효율성을 증대할 수 있다. 또한, 머신러닝은 데이터를 분석하고 숨어 있는 패턴을 찾는데 탁월한 능력이 있기 때문에, 소송과 관련된 방대한 자료와 재판에 필요한 정보를 신속히 제공하는 등 판사의 조력자 내지는 동반자로서의 역할도 기대할 수 있다.
머신러닝은 데이터에 따라 편향성 이슈 존재
미국에서는 민간 기업 노스포인트사가 개발한 ‘컴파스(COMPAS)’라는 알고리즘을 판결이나 가석방 결정시 범죄자의 재범가능성을 예측하는 도구로 활용하고 있다. 2013년 미국 위스콘신 주에서 총격 사건에 사용된 차량을 운전한 혐의로 기소된 ‘에릭 루미스’는 형량 판단 알고리즘인 컴파스의 “폭력 위험과 재범 가능성이 높다”라는 예측에 따라 예상보다 높은 징역 6년을 선고받았다. 이에 루미스는 비공개 알고리즘을 쓰는 것은 적법 절차에 위배된다면서 부당하게 중형을 선고받았다고 주장하였으나, 2017년 미국 위스콘신 주 대법원은 컴파스를 참고 자료로 사용할 수 있다고 판단하고, 루미스에 대한 중형 선고 판결을 인정했다. 머신러닝을 이용하여 재범가능성이 높은 피의자에게 중형을 선고할 수 있게 되는 것이다.문제는 컴파스가 편향될 수 있다는 점이다. 2016년 미국의 독립 언론 ‘프로퍼블리카’는 컴파스 알고리즘의 문제로 인해 흑인의 재범가능성이 백인에 비해 2배 높게 나타날 수 있다고 주장했다. 이는 과거 판결이 흑인에게 불리하게 나타나는, 학습 데이터 자체에 문제가 있었던 것으로 판단된다. 많은 사람이 인공지능은 객관적이고 중립적일 것이라 생각하지만, 컴파스 사례처럼 인공지능 역시 학습된 데이터에 따라 ‘편향적’인 면을 보일 수 있다.
맥락 파악과 추론 등 기술의 발전 필요
그렇다면, 이러한 AI판사 모형이 인간 판사를 대체할 수 있을까?에스토니아 사례처럼 단순한 규칙에 의한 벌금 계산 등의 영역처럼 행정 사건 역시 법조문이 비교적 단순하고 사실관계의 패턴이 다양하지 않아 예측력이 상대적으로 높고 AI 판사가 재판을 할 수 있을 것으로 보인다. 하지만, AI가 머신러닝을 통해 패턴을 학습하더라도 문장의 맥락과 의미를 이해하고 추론하지 못한다면 인간 판사를 대체하기는 어려울 것이다. 예를 들면, 복잡한 민형사 사건은 어떤 법조문이 적용되는지 조차 판단하기 쉽지 않다. 사실 관계의 패턴이 매우 다양하며, 다양한 조문이 동시에 적용되는 상황도 적지 않다. 이러한 경우 머신러닝에 기반한 패턴 학습의 예측력은 크게 떨어지게 된다. 특히, 과거에 없었던 사건에 대해서는 더욱 그러하다.
맥락의 이해와 추론 등 현재의 AI기술 수준에서는 인간 판사를 온전히 대체하지 못하겠지만, 특정 영역에서의 조력자 역할은 가능해 보인다. 예컨대, AI 알고리즘이 머신러닝을 통해 축적된 사건과 판례를 분석하고 가정에서의 아동학대 가능성을 예측해 준다면, 이를 인간 판사가 재판에 요긴하게 사용할 수 있을 것이다.
편향성의 극복과 사회적 가치 판단
사람들은 알고리즘을 객관적이라고 생각해 이를 신뢰하는 경향이 있다. 또한, 그 알고리즘을 만드는 과정에서 개발자의 주관이 개입될 수 있다. 데이터 자체에 스며들어 있는 편향성을 알고리즘이 스스로 찾아 제거하기에는 한계가 있으며, 개발자가 알고리즘을 조정하는 과정에서 새로운 왜곡을 만들어 내기도 한다.설사, 데이터가 모두 올바르고 예측이 정확하더라도 판사는 사회의 올바르고 정의로운 기준에 맞춰 사건을 최종적으로 판단할 수 있어야 한다. 피의자의 생애, 가정 환경 등을 이해하고 사회적 가치에 근거하여 감형을 판단하는 것이 판사의 중요한 업무 중 하나이지만 AI가 이를 기계적으로 구현하기는 힘들 것으로 보인다.
가슴 따뜻한 판사를 기대하며
일부 스타트업 기업들이 비대면 시대의 언택트 트렌드에 맞춰 AI 기반 법률서비스를 제공하고 있지만 법조 분야 전체에 비교하면 아직은 작은 움직임에 불과하다. 이러한 움직임이 가속화되기 위해선 먼저, 그간 축적된 상당한 양의 판결문들을 공개하고 디지털화해야 한다. 현재 미국은 판결문 뿐만 아니라 관련 문서 수백여 건을 모두 공개하고 있지만, 우리나라는 아직도 대부분의 판결문이 공개되지 않고 있다. 개인정보보호 등을 이유로 소장 등 법원에 제출한 서류는 원칙적으로 모두 비공개된다. 따라서, 판결문이나 계약서 등 전자화된 법률데이터 확보와 함께 데이터 활용을 위한 법적, 기술적 노력도 함께 수반되어야 한다.두 번째로, AI 기술에 있어 맥락 파악과 추론 능력의 획기적인 발전과 함께 편향성을 제어할 수 있는 방법론도 함께 발전되어야 하며, 궁극적으로는 피의자에 대한 감정 교감과 가치 판단까지 가능한 AI 기술이 개발되어야 한다. AI를 통한 윤리적인 판결이 가능해지기 위해서는 윤리 의식이 무엇인지 분명하게 규명하고 이를 AI에 반영하도록 고민해야 하는 것이다. AI 기술이 발전한다고 해서 윤리 문제라는 복잡한 문제를 고민하지 않아도 되는 것이 아니라 AI에게 윤리를 학습시키기 위해 ‘윤리가 무엇인지’를 과거보다 더욱 깊이 있게 고민해야 하는 것이다. AI 기술의 발전과 함께 윤리적 고민과 제도적 발전을 통해 사회적 가치관을 잘 반영하는 가슴 따뜻한 AI 판사를 기대해 본다.
윤주웅 KT경제경영연구소 수석연구원