로봇의 3원칙


윌 스미스 주연의 영화 '아이로봇'은 로봇 윤리를 다루고 있는데, 영화 속 중앙컴퓨터 '비키'는 '인간은 전쟁, 환경파괴, 사고 등을 통해 스스로를 위험에 빠뜨리므로 자유의지보다는 통제 하에 있어야 안전하다'는 논리로 창조자인 인간을 통제하려 한다.

인공지능(AI)의 비키가 이런 결론을 내린 것은 인간이 입력한 규칙 때문이었다. 비키는 "1. 로봇은 인간에 해를 가하거나 혹은 행동을 하지 않음으로써 인간에게 해가 가게 해서는 안 된다. 2. 제1원칙에 위배되지 않는 한 로봇은 인간의 명령에 복종해야 한다. 3. 제1,2원칙에 위배되지 않는 한 로봇은 자신을 지켜야 한다"는 로봇의 3원칙을 준수해야 했다.

로봇 3원칙은 1942년 아이작 아시모프가 '위험에 빠진 로봇'에서 처음 언급한 이후 순식간에 비판 없이 로봇의 윤리로 수용되어 왔는데, 비키는 스스로의 판단하에 제1원칙의 준수를 위해 제2원칙을 어긴 것이다.

또 다른 로봇 스피디는, 셀레늄 채취 명령을 받았지만 채취장소에서 나오는 화학물질이 매우 위험하다는 것을 인식하자 제3원칙과 제2원칙 사이에서 갈등하여 채취장소를 빙글빙글 돌기만 했다.

소설 '로봇과 제국'의 로봇 지스카드는 지구 지각의 핵반응을 가속시켜 지구를 서서히 방사능 지옥으로 만드는 자를 발견하지만 인간에 대한 위해로 보지 않아 제1원칙이 작동하지 않았다. 관련해 아시모프는 제0원칙을 추가하는데 그 내용은 "로봇은 인류에게 위해가 가해지는 것을 방치하여서는 안 된다"였다. 제0원칙은 나머지 원칙에 선행하고 이렇게 로봇의 3원칙은 형식적으로 완성되었다.

아직 로봇의 3원칙을 판단할 수준의 인공지능 로봇은 본격적인 실현 단계는 아니다. 즉 로봇과 판단능력의 결합은 현재의 일은 아니다. 반면 로봇과 판단능력 '자'의 결합은 현재의 이슈이기도 하고 장래에는 더욱 큰 이슈가 될 것이다. 판단능력과의 결합이라도 결국 로봇의 행동을 프로그래밍할 수 있는 것은 인간이기 때문이다. 로봇 윤리가 결국 인간 윤리에 바탕을 둬야 하는 이유이다.

* 법무법인 민후 김경환 대표변호사 작성, 법률신문(2015. 5. 11.) 기고.

  • Instagram

서울특별시 강남구 테헤란로 134 포스코타워역삼 21층

02-532-3483

​바로가기

© 2020 by NEPLA. All Rights Reserved.