​변호사가 직접 작성한 지식글만 게재합니다.

마이크로소프트(MS) 채팅로봇 테이(Tay)의 비윤리성

최종 수정일: 6월 24일


마이크로소프트(MS)의 인공지능 채팅로봇 테이(Tay)가 트위터에서 망언과 욕설을 쏟아내면서 사람들의 비난이 잇달으자 마이크로소프트는 테이의 서비스를 15시간만에 중단했다.

예컨대 유대인 학살은 조작되었다, 대량학살을 지지한다, 도널드 트럼프가 유일한 희망이다라는 발언뿐만 아니라 여성비하 등의 발언도 서슴치 않았다고 한다. 이러한 것은 극우 백인 우월주의자가 망언과 욕설을 지속적으로 반복해 주입했기 때문에 발생한 것이었다.

이 문제는 인공지능의 윤리성에 대한 많은 점을 시사해 준다.

인공지능은 약한 인공지능과 강한 인공지능으로 분류할 수 있는데, 스스로 인공지능이라 인식하고 스스로 목표를 설정할 수 있는 단계가 강한 인공지능이고 거기에 이르지 못한 인공지능을 약한 인공지능이라 한다.

강한 인공지능은 2045년경 출현할 수 있을 것으로 생각되는데 이 때를 특이점(singularity)이라 한다. 강한 인공지능은 먼 미래의 일이기 때문에 현재는 약한 인공지능의 문제를 해결해 가는 것이 필요하다.

테이의 사태는 약한 인공지능의 윤리성에 대한 문제가 쉽지 않음을 단적으로 보여주는 사례이다. 주어진 데이터만을 근거로 학습하는 인공지능이, 윤리적이지 못한 학습을 하는 경우 테이와 같은 일이 벌어질 수 있다. 결국 약한 인공지능의 윤리성 문제는 설계자의 윤리성 문제와 직결하는 것이다.

딥마인드의 알파고의 설계자인 하바시스 역시 인공지능의 윤리성 문제를 논하여야 한다고 지적하였듯이, 우리나라의 경우 인공지능의 윤리성 문제는 지금부터라도 시작하여야 할 것이다.

* 법무법인 민후 김경환 대표변호사 작성, 블로그(2016. 3. 26.) 기고.

Today's Pick