인공지능 판사는 가까이 와 있다

3월 2일 업데이트됨


제4차 산업혁명의 핵심 기술인 인공지능(AI)이 우리 사회에 성큼 다가왔다. 인공지능의 큰 흐름에 사법 시스템도 예외는 아니나, '보수적'인 사법 시스템에 '파괴적'인 인공지능 기술이 어떻게 적용될 수 있는지에 대해 우려와 기대가 교차하고 있다.

우리가 잘 알고 있는 인공지능 변호사는 IBM의 ROSS, JP모건의 COIN 등이 있지만 본 기고는 이러한 대량 자료의 검색이나 분석, 오류 교정 시스템에 대하여 논하는 것은 아니다.

본 기고는 그동안 판사가 해 왔던 사법적 결정(judicial decision-making)을 하는 인공지능 판사, 즉 인공지능을 활용한 재판 기술이 어느 정도까지 발전했는지, 어떻게 활용되고 있는지를 분석하고 이를 토대로 과연 인공지능 판사가 우리 법정에 도입될 수 있는지를 예측해본다. 그 과정에서 논쟁거리가 될 수 있는 알고리즘에 대한 적법 절차(digital due process) 쟁점을 다루기로 한다.

<사례1>

미국의 경우, 여러 주가 수년 전부터 공판 전 보석 결정에서 알고리즘에 의한 평가 시스템을 판사의 보조 수단으로써 부분적으로 활용해 왔지만, 2017년 초 미국 뉴저지주 형사 법원은 그간 일부 피의자에게만 행해졌던 알고리즘에 의한 평가를 전체 피의자의 공판전 보석 결정에 대하여 도입하는 파격적인 결정을 내렸다.

공중 안전 평가(Public Safety Assessment, PSA)라고 불리는 알고리즘에 의한 보석 평가 시스템은 축적된 150만개의 데이터를 통하여 도주 위험이나 범죄 가능성 등을 판단한다. 이 시스템은 인종·지역·재력 등의 요소를 전부 배제하는 등 중립적인 평가가 가능하도록 설계됐다. 판사는 이를 기초로 보석 여부를 결정하는데, 평가 시스템에 의한 기준에 부합한다면 보석금 공탁이 없더라도 보석이 가능하게끔 했다.

이 평가 시스템은 그동안 공판 전 보석 결정 과정에서 유색 피의자나 가난한 피의자들에 대한 판사의 편견이 작용했던 것을 극복하고자 한 것이다. 더불어 피의자의 과거 행적에 대한 평가가 아닌 피의자의 미래 행동에 대한 예측 과정에서 판사가 겪었을 판단상의 어려움을 지원해주는 시스템이다.

2017년 코넬 대학의 존 클리네버그(Jon Kleinberg) 교수 등은 머신러닝 등을 활용한 보석 결정은 구속률을 늘리지 않고도 24.8% 만큼 범죄율을 줄일 수 있으며, 범죄율을 늘리지 않고도 42.0% 만큼 수용자 수를 줄일 수 있다는 연구 결과를 발표한 적이 있다.

<사례2>

2016년 8월경, 영국 UCL 대학의 니콜라스 알레트라스(Nikolaos Aletras) 교수 등이 포함된 연구팀은 자연어 처리와 머신 러닝 기술을 활용한 인공지능 재판 결과를 보여줬다. 이 연구팀이 EU 인권재판소의 기존 584건의 재판 결과를 인공지능을 통해 수행한 결과 평균 70%의 높은 정확도를 나타냈다.

연구팀은 EU 인권협약 제3조(고문 및 비인간적 대우·처벌 금지), 제6조(공정한 재판을 받을 권리), 제8조(사생활을 존중받을 권리)와 관련된 584건의 재판 자료를 인공지능에 주고, 인공지능으로 하여금 패턴을 찾게끔 했고, 편견 등을 제거하기 위해 동일한 수의 인용 건과 기각 건을 인공지능에 제공했다. 판사의 성향 등을 분석·활용한 것이 아니라 순수하게 재판 자료에 기초해 수행했다.

이 연구를 통해 그동안 쌓인 재판 자료만으로 신뢰성 있는 재판이 가능할 수 있다는 긍정적인 결론을 얻었다는 점에서 많은 언론이 주목했다.

<사례3>

2016년 6월경, 훔친 차량을 이용해 도주하면서 총격을 가한 혐의로 재판에 넘겨져 민간기업의 인공지능 평가 시스템(COMPAS risk assessment)에 의해 6년 징역형이 권고됐던 에릭 루미스(Eric Loomis)는 미국 위스콘신주 형사법원 판사에 의해 동일한 형이 선고되자 이를 위스콘신주 대법원에 상고했다.

루미스의 상고 이유는, 민간기업의 인공지능 평가 시스템에 따르면 피고인이 장래 폭력과 재범 위험성이 높다고 나왔는데, 인공지능 평가 시스템이 어떤 알고리즘에 의하여 루미스를 평가했는지 알 수 없기 때문에 적법절차 위반이라는 것이다.

하지만 위스콘신주 대법원은 루미스의 인공지능 평가 시스템이 적절하게 사용된다면 적법절차 위반이 아니라고 하면서 상고를 기각했고 향후 위스콘신주에서 판사가 판단의 보조수단으로 인공지능 평가 시스템을 활용하는 것을 허락했다.

위 세 가지 사례에서 보듯, 인공지능 판사가 생각보다 우리 현실에 가까이 와 있음을 알 수 있다.

인공지능 판사가 필요한 이유는 첫째, 판사의 주관적 오류를 줄일 수 있다는 점이고, 둘째, 재판 과정에서 발생하는 사회적 편견이나 불합리한 차별을 줄일 수 있고, 셋째, 판사의 업무 시간을 줄일 수 있다고 한다.

하지만 문제는 인공지능 알고리즘 생성 과정에서 알고리즘 개발자 등에 의한 오류, 사회적 편견이나 불합리한 차별이 내포될 수 있는 위험이 있다는 것이다. 인공지능 이용으로 판사에 의한 오류나 편견·차별은 줄어들 수 있지만, 통제되지 않은 알고리즘으로 인한 위험성이 중요하게 다뤄져야 한다는 것이다.

더불어 에릭 루미스 사건에서 볼 수 있듯이, 평가 시스템의 알고리즘이 투명하게 공개되지 않았기에 이에 대한 반박 기회를 받지 못한 피고인이 알고리즘에 대한 적법절차(digital due process)를 주장하면서 그 위반을 내세우는 경우도 있을 것이다.

이와 관련해 2018년 5월부터 시행 예정인 EU의 일반개인정보보호규칙(GDPR)은 프로파일링을 포함해 자신에 관한 법적 효력을 주거나 유사하게 자신에게 중대한 영향을 미치는 자동화된 처리에만 근거한 결정에 따르지 않을 권리를 인정하고 있다.(제22조)

물론 법령에 의해 진행되는 재판의 경우는 피의자·피고인이 이러한 권리를 주장할 수 없지만 향후 예상되는 인공지능 활용에 있어 당연히 다뤄져야 할 문제라 생각한다.

인공지능 판사의 도입 및 그 활용에 있어, 향후 첨예한 논쟁과 심각한 사회적 대립이 불가피할 것으로 예상한다. 판사를 대체하는 인공지능의 실현에는 많은 전문가도 어렵다고 보지만, 판사의 보조수단으로서 인공지능 활용은 길지 않은 시간 안에 실현될 것이라 생각한다. 판사들도, 국민들도 그에 대한 대비를 미리 해야 할 것이다.

* 법무법인 민후 김경환 대표변호사 작성, IT조선(2018. 2. 16.) 기고.

HOT 게시물