BUSINESS 연구 자료
  • AMA 소스코드
    • 로봇윤리 이론
  • Soar
  • ROS
  • HRI
  • 참고문헌
  • main_banner02.png

    AMA 과제 소개
    인공윤리 에이전트 개발

    인간과 로봇이 서로 진정한 소통을 하기 위해서는 인공지능에 도덕적인 요소들이 함께 접목되어 개발되어야 한다. 

  • main_banner02.png

    AMA 소스코드
    AMA메타패키지 다운로드

    OP용 AMA 버전1.0 메타패키지를 다운받으세요. 

로봇은 인간을 대신해서 단순작업이나 높은 정밀도를 요하는 작업, 또는 위험한 작업을 수행하기 위한 목적으로 1950년대부터 개발이 시작되어, 단순한 장난감 로봇에서부터 개인서비스, 전문 서비스, 제조업에 이르기까지 다양한 분야에 적용되고 있다. 각 응용 분야에 사용되는 로봇은 다음과 같이 분류된다.

- 개인 서비스용 로봇: 청소로봇과 같은 가사 로봇, 교육용 로봇, 오락용 로봇, 개인 비서 로봇, 헬스케어 로봇, 소셜 로봇 등 일반인을 대상으로 서비스를 제공하는 로봇

- 전문 서비스용 로봇: 의료용 로봇, 국방용 로봇, 건설용 로봇, 사회안전 로봇 등과 같이 전문가를 보조하며 사회에서 요구하는 서비스를 제공하는 로봇

- 제조업용 로봇: 산업용 로봇으로서 생산제조용 로봇, 농업용 로봇, 어업용 로봇 등 모든 산업생산 활동에 적용되는 로봇

현재의 소셜 로봇과 헬스케어 로봇은 로봇이 처한 상황을 인지하고 기본 서비스(메일 확인, 약복용이나 약속시간 등의 알림 기능, 사진촬영, 인터넷을 통해 요리 레시피 같은 전문지식 알려줌 등)를 대상인에게 HRI(human-robot interaction, 인간로봇상호작용)를 통해 제공하는 데 주안점을 두고 있지만, 향후 동반인의 건강상태, 성격과 기호, 지식수준 등에 따라 로봇이 지능적 뿐만 아니라 도덕적으로도 적절히 인간을 대할 수 있어야 한다. 이를 위해서는 로봇 윤리(robot ethics) 분야의 연구가 뒷받침되어야 한다.

로봇윤리(robot ethics)의 정의는 크게 세 가지로 나눌 수 있다(Abney 2012).

1. 로봇공학자의 직업 윤리(professional ethics)

2. 로봇에 프로그램 된 도덕적 코드(moral code)

3. 로봇이 윤리적 판단을 할 수 있게 하는 자의식 능력(self-conscious ability)

본 과제에서는 두 번째 정의인 ‘로봇에 프로그램 된 도덕적 코드’로서 로봇윤리에 관한 내용을 연구한다.

로봇 윤리의 고전으로 널리 알려져 있는 것이 바로 아이작 아시모프(Isaac Asimov)가 1942년에 그의 단편 Runaround에서 소개한 로봇 3원칙(Three Laws of Robotics)이다.

1원칙: 로봇은 인간에 해를 가하거나, 혹은 해야 할 행동을 하지 않음으로써 인간에게 해를 끼쳐서는 안 된다.
(A robot may not injure a human being or, through inaction, allow a human being to come to harm.)

2원칙: 로봇은 인간이 내리는 명령들에 복종해야만 하며, 단 이러한 명령들이 첫 번째 법칙에 위배될 때에는 예외로 한다.
(A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.)

3원칙: 로봇은 자신의 존재를 보호해야만 하며, 단 그러한 보호가 첫 번째와 두 번째 법칙에 위배될 때에는 예외로 한다.
(A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.)

이와 관련하여 일본의 후쿠오카에서 2004년에서 개최 된 International Robot Fair에서는 다음과 같이 세계로봇선언을 선포했다.

1. 차세대 로봇은 인간과 함께 공존하는 파트너가 될 것이다.

2. 차세대 로봇은 인간을 육체적, 정신적으로 보조할 것이다.

3. 차세대 로봇은 안전하고 평화로운 사회구현에 기여할 것이다.

한국에서는 2007년에 과학자, 의사, 심리학자, 변호사, 공무원 등 각계인사 12명을 중심으로 로봇윤리 협의체를 구성하고 2008년에 로봇윤리 헌장 초안을 발표했으나, 로봇의 지위 결정 문제가 해결되지 않아 현재까지 로봇윤리헌장이 완성되지 않고 있다. 이 때 제정한 로봇윤리 헌장의 초안 요약본은 다음과 같다.

1장(목표): 로봇윤리헌장의 목표는 인간과 로봇의 공존공영을 위해 인간중심의 윤리규범을 확인하는 데 있다.

2장(인간, 로봇의 공동원칙): 인간과 로봇은 상호간 생명의 존엄성과 정보, 공학적 윤리를 지켜야 한다.

3장(인간 윤리): 인간은 로봇을 제조하고 사용할 때 항상 선한 방법으로 판단하고 결정해야 한다.

4장(로봇 윤리): 로봇은 인간의 명령에 순종하는 친구ㆍ도우미ㆍ동반자로서 인간을 다치게 해서는 안 된다.

5장(제조자 윤리): 로봇 제조자는 인간의 존엄성을 지키는 로봇을 제조하고 로봇 재활용, 정보보호 의무를 진다.

6장(사용자 윤리): 로봇 사용자는 로봇을 인간의 친구로 존중해야 하며 불법개조나 로봇남용을 금한다.

7장(실행의 약속): 정부와 지자체는 헌장의 정신을 구현하기 위해 유효한 조치를 시행해야 한다.

1. 로봇은 인간을 죽이거나 해할 목적 즉 무기로 설계되어서는 안된다. 단 국가안보를 위한 경우는 제외한다.

2. 로봇으로 발생한 문제는 로봇이 아니라 인간이 법적인 책임을 져야 한다. 로봇은 사생활 보호뿐 아니라 현존하는 법규범에 부합되도록 설계되고 운용되어야 한다(예: 병원입원환자를 치료 보조하는 로봇이 환자의 기록을 수집하여 병원이나 관련기관에 전송하는 경우).

3. 로봇은 안전과 보안 보장에 적합하도록 설계되어야 한다(예: 로봇 장난감의 안전성, 운영프로그램 해킹 대비).

4. 로봇은 지능이나 감정을 가지는 것처럼 디자인될 수 있지만 사람(특히 심신미약자)에게 이에 대한 착각이나 환상을 불러일으키도록 설계되고 사용되어서는 안된다. 인공지능 등 로봇의 실체에 대해서는 사용자에게 명확히 고지되어야 한다.

5. 모든 로봇은 관리와 사용에 대해 법적 책임을 지는 사람이 명확해야 명시되어야 한다(허가와 등록).

다양한 윤리 일반 이론 중에서 로봇윤리에 적용 가능한 것은 의무론, 공리주의, 덕윤리, 책임윤리가 있다(변순용·송선영, 2015).

* 의무론(Deontology): 칸트(I. Kant)는 도덕적 행동의 출발점을 선의지(good will)로 보았으며, 선의지에 따른 행위는 보편적인 법칙이고, 인간의 도덕적 의무가 되어야 한다고 했다. 이러한 선의지의 도덕명령을 정언명령(categorical imperative)이라고 하며 이를 요약하면 다음과 같다.

제1 명령: 너의 의지의 준칙이 언제나 타당한 보편적 입법의 원리가 되게끔 행동하라.

제2 명령: 타인을 대함에서 수단으로 대하지 말고 언제나 항상 목적으로 대하라.

제3 명령: 보편적인 목적의 왕국에서 항상 입법가로서 행동하라.

* 공리주의(Utilitarianism): 벤담(J. Bentham)과 밀(J. S. Mill)은 인간 행위의 윤리적 동기를 개인의 이익과 쾌락의 추구에 두고 "도덕은 최대 다수의 최대 행복(happiness)을 목적으로 한다"라고 주장했다.

공리주의에서의 행복은 고통의 부재를 의미하며, 올바른 행동을 하는 사람은 자신의 행복을 극대화하면서 동시에 다수의 행복도 극대화하는 결과를 얻는 행동을 하는 사람이다.

밀은 행복은 궁극적으로 존엄성(dignity)을 실현하는 것이라고 하였으므로, 존엄성을 실현하기 위해 질적 행복을 극대화할 수 있는 행위를 계산하는 기준을 정할 필요가 있다.

* 덕윤리(Virtue Ethics): 아리스토텔레스에 의하면 행복은 삶의 과정에서 형성되는 덕에 의해 실현되는 구체적 활동이다. 덕윤리는 이러한 아리스토텔레스의 사상을 따라 행위자의 품성과 덕성을 중요시 여긴다. 그러므로 의무론과 공리주의(결과적으로 얼마나 좋은 행위를 하느냐)와는 달리 근본적으로 얼마나 좋은 인간(롤 모델)이 되어야 할 것인가에 초점을 맞춘다.

덕윤리에서 도덕적 행위자는 일생의 수많은 경험들과 자성, 학습을 통해 탁월한 성품을 갖추고, 덕을 실천적으로 형성하며, 모든 사물들을 관조하게 된다.

* 책임윤리(Ethics of Responsibility): 요나스(H. Jonas)는 과학 기술의 발달과 그것을 따라가지 못하는 윤리의 차이를 '윤리적 공백'이라 부르면서, 이를 극복할 수 있는 새로운 윤리의 필요성을 강조했다. 이러한 책임윤리에 의하면 도덕적 행위자는 어떤 행위를 할 때 그 행위의 결과에 대해 자신이 기본적으로 책임을 져야하며, 공동체 및 인류 전체와 미래에 대한 책임 또한 질 수 있어야 한다.

zum 학습백과에 따르면 책임윤리의 특징은 다음과 같이 정리된다.

1. 인간이 존재해야 한다는 것은 정언 명령이다. 따라서 인간은 자살해서는 안 된다.

2. 인간의 본질은 인간의 윤리, 즉 의무 내지 책임질 수 있는 능력에 있다. 이러한 인간의 본질을 도박에 걸어서는 안 된다.

3. 자연은 인간의 생존을 위한 필수적인 조건으로서만이 아니라 그 자체로 인간의 보호를 요청한다.

4. 인간 행위, 특히 집단적인 행위의 결과 및 부작용에 대해 알리고 노력해야 한다.

5. 인간의 일상적인 행위, 특히 행위의 장기적인 부작용에 대하여 교육해야 할 의무가 존재 한다.

본 과제는 로봇윤리의 이론적 기초를 구축하기 위해 미국의 심리학자인 콜버그(Lawrence Kohlberg)가 제안한 인간의 도덕성 발달 단계(3수준 6단계)를 참고로 한다.

다음은 인간의 전체 연령별 도덕수준을 정리한 표이다(Nucci 2001).

연령

개념의 구조

도덕영역 인습영역 콜버그 단계
5-7세 * 명백한 의무(ex. 다른 사람을 때리거나 다치게 해서는 안됨)를 인식함

* 그러나 그러한 기본적인 요구사항을 넘어서서, 공정성은 자기이익이라는 관점에서 우선시됨

인습은 경험에 기반을 둔 규제를 설명하는 것으로써 "구체화 된 것"임

(ex. 여자는 드레스를 입어야 한다. 왜냐하면 여자는 드레스를 입고, 남자는 그렇지 않기 때문)

1단계

* 규칙은 준수되어야만 한다.

* 우리는 사람과 재산에 대한 물질적 피해를 피해야만 함

8-10세 이제 공정함(fairness)이나 공평(equity)에 대해 관심을 갖기 시작하면서 나타나는 몇 가지 중 엄격한 평등(strict equality)이란 측면에서 주로 규정된 "정당한(just)" 상호성의 개념과 통합되어 있다. * 경험에 기반을 둔 규제로서의 인습의 개념을 부정

*인습의 예외적인 사항들(어떤 여자들은 바지를 입는다 등)이 인습은 임의적이라는 증거로서 받아들여짐

2단계

* 수단적인 교환으로서의 도덕성: "네가 나의 등을 긁어 주면 나도 너의 등을 긁어 줄 것이다."

* 자신의 이익과 욕구에 부합하게 행동

10-12세 * 공정함이란 엄격한 평등보다 그 이상을 요구하는 것이다.

* 공평에 대한 관심(다른 사람들의 특별한 욕구나 상황, 기여도를 고려하는 것)은 이제 도덕적 결정을 내리는데 있어 상호성(reciprocity)과 조화를 이룬다.

* 인습적인 규칙은 질서를 유지케 한다(사람들이 복도에서 뛰지 않도록 해 줌)는 점을 구체적으로 이해함

* 사회의 권위와 규칙에 관해서 하향식(top-down) 개념을 가짐

* 질서를 유지하기 위해 책임을 진(권위를 가진) 사람들이 규칙을 만든다.

3A단계

* 착하다는 것은 자신의 역할(ex. 착한 오빠/언니)과 주위 사람들이 기대하는 대로 살아가는 것을 의미한다.

* 공정은 황금률이다.

* 우리는 다른 사람을 배려해야만 한다.

14-17세 공평함과 평등의 통합이 지속 * 사회 구조에 대한 체계적인 개념의 출현

* 인습이란 고정된 역할과 정적인 위계적 구조를 지닌 사회 체계 안에서 규범적이고 구속력을 가진 것으로 간주됨

4단계

* 도덕이란 통치 체계의 법률로서 명시됨

* 법을 준수하는 것은 무엇이 옳은가에 대한 객관적 토대를 제공한다.

* 사회 체계를 유지하는 것은 도덕적 질서를 유지하고 해로움으로부터 똑같이 보호받기 위한 기반이 됨

17-20세 성인 도덕으로의 전환 인습이란 사회 체제를 유지시키는데 기여하는 동일한 규범이라는 관점을 부정 4와 1/2 단계

* 도덕은 법과 규범 체계와 관련된다.

* 어떤 체계도 도덕적 우월성을 지니고 있다고 말할 수 없다.

* 옳음은 어떤 사람이 처한 상황에서 그에게 가장 옳은 것이다.

성인기 (도덕적 영역 외삽법)

* 어떤 사회 체계에 대해 추론할 때, 공정과 선행의 개념을 적용

* 도덕은 특정한 체계의 기준과 독립적인 것으로 이해됨

* 모든 사람의 조화되지 않지만, 본래적인 가치와 보편적이고 처방적인 도덕의 특성을 통합시킴

* 인간의 대우에 관한 도덕적 의무의 논리적 확장

인습은 사회적 상호작용을 통합시키는데 기능하는 통일성이다. 5단계

* 도덕은 "사회보다 우선한다."는 관점이다.

* 도덕적인 것은 사회적 애착과 계약 이전에 존재하는 가치와옳음이다.

* 이러한 가치와 옳음은 합리적인 존재가 어떤 도덕적인 사회에 반영되어지기를 원하는 그런 것들이다.