[이상헌의 과학기술 속에서 윤리 읽기]

로봇윤리하면 대부분의 사람들은 맨 먼저 아이작 아시모프(Issac Asimov)의 로봇공학 3원칙(three laws of robotics)을 떠올릴 것이다. 로봇공학 3원칙은 1942년 아시모프가 '위험에 빠진 로봇(Runaround)'에서 처음 언급한 이후 순식간에 사람들의 주목을 받았으며 별다른 논쟁 없이 로봇의 규범으로 그대로 수용되었다. 이후 지금까지 사람들은 로봇의 규범적 가이드라인으로 아시모프의 로봇공학 3원칙을 거의 당연한 것처럼 여기고 있다.

아이작 아시모프.  ⓒ2011 HelloDD.com
아이작 아시모프.  ⓒ2011 HelloDD.com
아시모프가 제안한 로봇공학 3원칙은 ▲로봇은 인간에게 해를 입히는 행동을 하거나, 인간이 해를 입는 상황에서 아무런 행동도 하지 않아서는 안 된다

<원칙1> ▲로봇은 인간이 내리는 명령에 복종해야 한다. 단 이런 명령이 원칙1에 위배될 때는 예외로 한다<원칙2> ▲로봇은 자신의 존재를 보호해야 한다. 단 자신을 보호하는 것이 원칙1과 원칙2에 위배될 때는 예외로 한다<원칙3> 등이다. 하지만 아시모프의 로봇공학 3원칙은 로봇이라기보다는 단순한 기계 장치 정도가 존재하던 1942년에 만들어졌으며 그것도 공상과학 소설(SF)에서 언급된 것이다.

현재 로봇공학은 1940년대와는 전혀 다른 국면에 있으며 지금의 발전 속도라면 사람들과 상호작용하는 인공지능 로봇이 가정, 병원, 전쟁터에서 발견될 날이 멀지 않았다는 점에서 아시모프의 로봇공학 3원칙의 의미와 한계에 대해 좀더 진지한 성찰이 필요하다고 본다.

◆아시모프도 알고 있었던 3원칙의 한계

로봇공학 3원칙의 한계에 대해서는 아시모프 자신도 잘 알고 있었던 것으로 보인다. 아시모프는 자신의 여러 저작에서 로봇공학 3원칙이 지능을 가진 로봇을 통제하는 적절한 규범이 될 수 있는지에 관하여 고민했다. 아시모프는 로봇공학 3원칙을 자신의 소설 속에서 검증해보려고 했으며 이 원칙들의 예외적 상황을 소설 속에서 상상해보려고 했던 것으로 보인다.

로봇공학 3원칙이 처음으로 언급된 '위험에 빠진 로봇(Runaround)'에서 아시모프는 <원칙2>와 <원칙3>의 충돌 상황을 묘사했다. 그 상황을 간략하게 요약하면 다음과 같다. 수성 기지 재가동 임무를 수행하고 있는 그레고리 파월(Gregory Powell)과 마이크 도노반(Mike Donovan)으로부터 셀레늄 채취 임무를 받고 기지에서 27킬로미터 떨어진 셀레늄 웅덩이를 찾아온 지능로봇 스피디(Speedy)는 5시간이 지나도록 기지로 돌아가지 못하고 있다.

뒤늦게 스피디를 발견한 파월과 도노반은 스피디에게 돌아올 것을 명령했지만 스피디는 알아듣지 못할 소리를 지껄이며 셀레늄 웅덩이 주변에서 계속 왔다 갔다 하는 행동을 반복하고 있다. '로봇은 인간이 내리는 명령에 복종해야 한다'는 <원칙2>에 따라 스피디는 셀레늄 웅덩이로 가서 셀레늄을 채취해 돌아가야 하는 것이 일반적이다. 하지만 셀레늄 웅덩이에서 뿜어져 나오는 화학물질이 스피디에게 매우 위험한 것이어서 스피디가 셀레늄 웅덩이로 다가갔을 때 '로봇은 자신의 존재를 보호해야 한다'는 <원칙3>이 강화된다.

그래서 스피디는 셀레늄 웅덩이에서 멀어지면 <원칙2>에 따라 셀레늄을 채취하러 웅덩이를 향해 가고, 웅덩이이 근처에 도달하면 <원칙3>에 따라 다시 웅덩이에서 멀리 떨어지려고 한다. 이런 식으로 스피디는 계속해서 셀레늄 웅덩이 주변을 왔다갔다하고 있는 것이다.

아시모프의 SF 단편집 '나는 로봇이다' 표 지. 로봇 3원칙이 처음 언급된 '위험에 빠진 로봇'의 내용이 그려져 있다. ⓒ2011 HelloDD.com
아시모프의 SF 단편집 '나는 로봇이다' 표 지. 로봇 3원칙이 처음 언급된 '위험에 빠진 로봇'의 내용이 그려져 있다. ⓒ2011 HelloDD.com
그대로 내버려 두었다면 스피디는 태양의 열기를 더 이상 버티지 못하고 몸체가 타버릴 때까지 무한 반복되는 동작을 했을 것이지만, 파월이 생명의 위험을 무릅쓰고 <원칙1>에 호소하는 행동을 함으로써 스피디도 구하고 자신들의 임무도 완수할 수 있었다.

로봇공학 3원칙은 여러 작가들에 의해 약간 변형되거나 다듬어져서 사용되었으며, 아시모프 자신도 이 3원칙을 여러 작품들에서 다소 변형된 형태로 제시하였다. 하지만 상세한 부분까지 인간이 제어할 필요가 없는 자율 로봇에 대한 이야기들을 통해 아시모프는 3원칙만으로는 부족하다고 느꼈으며, 1985년에 '로봇과 제국'에서 네 번째 원칙을 추가하고 3원칙을 수정하였다.

이른바 <원칙0>으로 불리는 이 원칙은 '로봇은 인간성(humanity)에 해를 입히는 행동을 하거나, 인간성이 해를 입는 상황에서 아무런 행동도 하지 않아서는 안 된다'이다. 이 원칙은 모든 원칙에 선행한다. 그래서 나머지 세 원칙에 대해서는 <원칙0>이 모든 원칙보다 우선한다는 내용이 포함되는 수정이 이루어졌다.

◆로봇공학 네가지 원칙은 SF 속에서만 위력적

대중들이 로봇에 관심을 기울이고 로봇을 규제하는 규범들에 대해 관심을 갖게 된 것은 아마 SF 때문일 것이다. 이런 배경은 로봇윤리에 대한 대중들의 잘못된 이해를 불러오기도 했다. 아시모프의 <원칙0>을 예로 들어 이야기해 보자. 로봇은 인간성에 해를 입히는 행동을 해서는 안 된다고 규정하고 있는 <원칙0>을 로봇이 이해할 수 있을까?

여기서는 인간성이라고 번역하였지만 'humanity'는 인류를 뜻하는 것일 수도 있다. 인간성으로 해석하든 인류로 해석하든 로봇이 <원칙0>을 제대로 준수할 수 있을지 의문이다. 개별 인간에게 해를 입히지 말라는 말을 이해하는 로봇이 있다고 가정하자. 그 로봇은 인간성을 무엇으로 이해할까? 인간성에 해를 입히는 것과 인간성에 이득이 되게 하는 것을 무엇이라고 이해할까? 또 인류는 어떻게 이해할까? 어떤 것이 인류에게 해가 되는 것이고, 어떤 것이 인류에게 득이 되는 것일까? 이런 종류의 판단을 로봇이 할 수 있을까?

이런 종류의 판단을 로봇이 한다고 할 때, 그리고 그런 판단에 따라 로봇이 어떤 행동을 한다고 할 때, 그런 행동이 인류에게 해가 되는 않을 것이라고 확언할 수 있을까? 이런 점을 살펴볼 때, 아시모프의 로봇공학 네가지 원칙은 여전히 문제점을 안고 있으며 허구적이다.

아시모프의 로봇공학 네가지 원칙은 아직 해결되지 않는 이론적 쟁점을 그냥 가정하고 있다. 다시 말해 인간처럼 생각하고 판단하고, 심지어 느낄 수도 있는 로봇이 가능하다는 가정 위에 세워진 원칙들이다. 지극히 낙관적인 공학자들은 미래에 컴퓨터의 성능이 지금보다 월등하게 향상된다면 인간의 뇌를 흉내낼 수 있으며, 심지어는 인간의 뇌를 능가하는 인공 뇌를 만들 수 있을 것이라고 믿고 있다. 하지만 이런 믿음이 실현 가능한 것인지는 아직 미지수이며, 현재로서는 이런 믿음이 실현되지 않는 종류의 것일 가능성이 더 크다.

인공지능에 관한 논쟁은 제쳐두더라도, 현재 아시모프의 소설에 등장하는 것과 같은 로봇은 존재하지 않는다. 그러면서도 로봇이 과거보다 우리에게 훨씬 더 가까이 다가온 것은 분명한 사실이며, 가까운 장래에 로봇이 가정과 병원, 학교, 전쟁터 등에서 인간과 더불어 활동하게 될 것이다. 물론 이런 로봇들은 아시모프의 지능 로봇과는 거리가 먼 것들이다.

그렇기 때문에 로봇에 관련된, 로봇과 인간 사이의 상호작용에 관련된 규범적 논의들이 필요해졌다.

◆로봇의 윤리인가, 로봇공학자의 윤리인가?

혼다 사의 최신 버전 휴머노이드 아시모. 뛰거나 보행자 를 피해서 걷고 닫힌 보온병의 물을 컵에 따르는 등 한층  업그레이드 된 능력을 보여줬다.  ⓒ2011 HelloDD.com
혼다 사의 최신 버전 휴머노이드 아시모. 뛰거나 보행자 를 피해서 걷고 닫힌 보온병의 물을 컵에 따르는 등 한층  업그레이드 된 능력을 보여줬다.  ⓒ2011 HelloDD.com
아시모프의 로봇공학 네가지 원칙은 로봇이 지켜야 하는 규칙이었다. 아시모프는 로봇을 지능적으로 추론하고 자율적으로 의사결정하는 행위의 주체라고 가정했기 때문이다. 하지만 현재 존재하는 최첨단의 로봇이나 가까운 미래에 등장할 로봇들은 아시모프의 로봇에 비하면 매우 멍청할 것이다.

자율로봇이라고 하는 것도 인간의 직접적 제어가 줄어든다는 것뿐이지 인간 제어 없이 행동할 수 있는 로봇을 의미하지 않는다. 이런 맥락에서 볼 때, 로봇의 윤리라는 의미의 로봇윤리는 유효하지 않아 보인다. 하지만 로봇이 인간과 더욱 가까워지고, 인간에 의해 쓰임이 증대됨으로써 윤리적, 사회적, 법률적 문제들이 발생할 것임은 분명하다.

예를 들어, 부모를 대신에 아이를 돌보는 보모 로봇은 프로그램 된 대로 아이를 돌보거나 아이를 돌보는데 도움을 주겠지만, 매우 어린 아이들이 보모 로봇에 장시간 노출되었을 때, 심지어는 부모가 보모 로봇에 거의 배타적으로 의존하는 경우에 이런 상황이 아이에게 미칠 영향에 대해 고려하지 않을 수 없다. 또 동물과 너무 흡사한 애완로봇을 정말로 애완동물처럼 여기는 고령자에게 애완로봇이 미칠 영향에 위험요소가 없는지 확인할 필요가 있다.

더욱이 전쟁터에 투입되는 살상용 로봇은 그 자체가 문제일 뿐만 아니라, 적군과 아군 혹은 군인과 민간인을 구분할 능력이 없는 경우에 심각한 윤리적 문제를 야기한다. 이런 점들을 감안할 때, 현재 로봇에 관한 규범적 논의가 시급한 시기에 도달한 것이 분명하며, 이러한 규범적 논의는 아시모프식의 로봇의 윤리가 아니라, 로봇공학자의 윤리, 로봇설계자와 제조자의 윤리, 로봇 판매자와 사용자의 윤리에 대한 것이어야 할 것이다.

이런 점에 대한 분명한 인식 아래에서, 로빈 머피(Robin R. Murphy)와 데이비드 우즈(David D. Woods)는 아시모프의 로봇공학 3원칙 대신에 '책임 있는 로봇공학의 대안적 3원칙'을 제시했다. 예를 들면, 머피와 우즈는 "로봇은 인간에게 해를 입히는 행동을 하거나, 인간이 해를 입는 상황에서 아무런 행동도 하지 않아서는 안 된다"는 <원칙1> 대신에 "인간은 안전성과 윤리에 관한 최상의 법률적 및 전문적 표준에 부합하는 인간-로봇 작업 시스템 없이 로봇을 배치해서는 안 된다"는 대안적 원칙을 제시한다. 아시모프의 원칙이 로봇에 대해 규정한 것이었다면 머피와 우즈의 원칙은 인간에 대해 규정한 것이다.

◆'로봇공학자를 위한 5가지 윤리'와 '로봇윤리헌장' 초안

2004년 오준호 한국과학기 술원 교수팀에 의해 개발된 보 행 로봇 휴보.  ⓒ2011 HelloDD.com
2004년 오준호 한국과학기 술원 교수팀에 의해 개발된 보 행 로봇 휴보.  ⓒ2011 HelloDD.com
지난해 영국의 공학자들과 인문학자들이 로봇 및 로봇연구의 윤리적, 법률적, 사회적 함의(ELSI)에 대해 논의하기 위해 한 자리에 모였다. 공학·물리과학연구위원회(EPSRC)와 인문예술연구회위회(AHRC)가 함께 한 회의에서 이들은 현재의 로봇과 5년에서 10년 사이에 등장할 가능성이 있는 로봇만을 대상으로 삼아 ELSI에 대한 논의를 거쳐 로봇공학자의 윤리 초안을 마련하였다. 이들이 작성한 '로봇공학자를 위한 5가지 윤리'는 다음과 같다.

첫째는 로봇은 다용도 도구이다. 국가 안보의 경우 이외에 인간 살상이 유일한 혹은 일차적 용도이도록 설계되어서는 안 된다. 둘째는 로봇이 아니라 인간이 책임의 주체이다. 그래서 로봇은 기존의 법률과 기본적 인권과 자유를 준수하도록 설계·운영되어야 한다. 세째는 로봇은 안전과 보안이 확실한 공정을 이용해 설계되어야 하는 제품이다. 네째는 로봇은 제조된 인공물이다. 취약한 이용자를 착취하는 기만적 방식으로 설계되어서는 안 된다.(기계적 특성이 투명해야 한다.) 다섯째는 로봇에 대한 법률적 책임이 누구에게 있는지 언제나 분명해야 한다.

이 다섯 가지 윤리는 로봇윤리가 인간을 규제하는 규범임을 분명히 했다. 로봇을 도구 혹은 제품으로 규정하고 있으며, 인간만을 행위의 주체, 책임의 주체로 인정하고 있다. 로봇과 관련된 문제에 대한 책임이 언제나 인간에게 있음을 명시하고, 그런 맥락에서 로봇에 대한 법률적 책임의 주제를 언제나 분명히 할 것을 요구하고 있다. 영국에서 작성한 '로봇공학자를 위한 5가지 윤리'는 SF 속에 존재하던 아시모프의 로봇공학 3원칙을 현실로 끌어낸 점에서 큰 진전을 이루었다고 본다. 하지만 첫째 원칙에서 국가 안보를 이유로 전쟁로봇을 용인한 것은 문제가 될 것이다.

오늘날 로봇 활용의 가장 큰 문제거리로 등장한 것이 전쟁용 살상로봇인 점을 감안하면 첫째 원칙에서의 예외 규정은 다소 성급한 처사로 보인다. 한편 우리나라에서도 전문가들 사이에서 로봇공학에 관한 규범적 논의의 필요성에 대한 인식이 있었고, 다소 거창하게 로봇윤리헌장을 제정하기 위한 연구를 진행하였다. 그리고 2008년도에 로봇윤리헌장 초안을 발표하였다.

현재는 보류되어 헌장의 완성과 발표를 미루고 있는 상태이다. 일찌감치 로봇공학에 대한 규범적 논의의 필요성을 인식하고, 또 그런 인식을 실행에 옮겨 로봇윤리헌장을 마련하려는 노력을 수 년 간 기울여온 것에 대해서는 찬사를 보내야 할 것이다. 하지만 초안으로 발표된 로봇윤리헌장(이하 헌장)은 실망스러운 수준이다. 헌장이 보여주는 로봇공학에 대한 인식은 아시모프의 SF에서 완전히 빠져나오지 못한 것으로 보이기 때문이다.

'인간과 로봇의 공존공영(1장)'이나 '인간과 로봇은 상호간 생명의 존엄성' '로봇사용자는 로봇을 인간의 친구로 존중해야 하며' 등의 표현에서 보듯이 헌장은 SF 속에서는 이미 70년 전에 등장하였지만 현실 속에서는 아주 먼 미래에나 등장할, 혹은 영원히 등장하지 않을 지도 모를 로봇을 대상으로 삼고 있다. 2013년에 발표될 예정인 로봇윤리헌장은 현실에 대한 정확한 인식을 바탕으로 실효성 있는 내용을 담은 것이기를 기대해 본다. 참고 문헌 Robin R. Murphy & David D. Woods, 'Beyond Asimov_The Three Laws of Responsible Robotics', IEEE Intelligent System 2009. Noel Sharkey, 'The Ethical Frontiers of Robotics', Science 19 December 2008: Vol. 322 no. 5909 pp. 1800-1801. Susan Leigh Anderson, 'Asimov's "three laws of robotics and machine metaethics', AI & Soc. 22, 2008, pp.477-493.
 

▲이상헌 교수 ⓒ2011 HelloDD.com
이상헌 교수는 서양철학을 전공했으며 현재 가톨릭대학교 교양교육원 강의전담교수로 재임 중입니다. 연구분야는 신생과학기술에 대한 윤리적 논의, 비판적 사고와 글쓰기입니다. 주요 저서로는 '기술의 대융합(공저)' '대학생을 위한 과학글쓰기(공저)' 등이 있습니다. 이 교수는 '이상헌의 과학기술 속에서 윤리읽기'를 타이틀로 신생과학기술들을 윤리적 관점에서 되새겨 보며 인간의 행복 증진을 위해 최선의 길을 찾아갈 수 있는 방향을 제시해 주고 있습니다.
저작권자 © 헬로디디 무단전재 및 재배포 금지