robofriend 로봇 친구
  • main_banner02.png

    AMA 과제 소개
    인공윤리 에이전트 개발

    인간과 로봇이 서로 진정한 소통을 하기 위해서는 인공지능에 도덕적인 요소들이 함께 접목되어 개발되어야 한다. 

  • main_banner02.png

    AMA 소스코드
    AMA메타패키지 다운로드

    OP용 AMA 버전1.0 메타패키지를 다운받으세요. 

로봇은 우리의 친구가 될 수 있을까?

로봇의 어원은 체코의 극작가인 카렐 차펙(Karel Capek)이 1920년에 발표한 'Rossum's Universal Robots'라는 희곡에서 체코어로 '강제로 일하다'라는 뜻인 robota라는 단어를 사용해서 일만 열심히 하는 인조인간을 지칭한 데서 유래한다.

이처럼 로봇은 사람을 대신해서 단조롭거나, 위험하거나, 작업환경이 열악하거나, 큰 힘이 필요한 일을 반복적이면서 정확하게 잘 할 수 있도록 끊임없이 연구개발되어 왔다.

아래의 사진은 세계최초로 안정적인 이족보행이 가능한 휴머노이드 로봇이었던 Honda사의 ASIMO와 이 로봇을 기획할 당시 연구원들의 스케치인데, 사람을 대신해서 힘든 일을 하는 것이 이 로봇의 개발 목적임을 잘 보여주고 있다.

이제 사람들은 공장에서 사람대신 힘든 일을 척척 해내는 산업용 로봇 뿐만 아니라 일상생활에서 함께 지낼 수 있는 다재다능하고 친숙한 로봇을 점점 더 필요로 하고 있다.

그 결과 아래 사진에서처럼 사람과 대화하고, 원하는 정보를 알려주고, 필요한 서비스를 제공해주고, 멀리 떨어진 곳에서 사람 대신 회의에 참여하고, 전쟁터에서 위험한 폭발물을 제거하고, 심지어는 사람 대신 자율적으로 운전하여 안전하게 목적지까지 데려다 주는 로봇 기술들이 속속 현실화되어 가고 있다.

이렇게 우리 인간들이 살고 있는 공간에 로봇이 불쑥 들어온다면 우리는 로봇을 어떤 존재로 받아들이게 될까?

처음에는 로봇이 어색하고 낯설겠지만, 늘 그래왔듯이 우리는 로봇에 대해 나름의 정의를 하고 곧 익숙해져서 로봇을 사람도 동물도 아닌 제3의 존재(준인격체)로 간주하게 될 것이다.

그리고 자신도 모르게 로봇이 인간처럼 생각하고 말하고 행동하기를 기대할 것이다.

이는 본질적으로 로봇이 최소한의 예절과 사회·문화적 소양, 도덕성을 갖출 것을 요구하는 것과 같으며, 로봇이 그러한 기대를 저버릴 때 사람들이 느끼는 실망감과 충격, 두려움은 또 다른 사회적 문제를 야기할 수도 있다.

"만약 내가 비싼 돈으로 구매한 로봇이 나를 위험에 빠지게 하거나 죽일 수도 있다면?"

이러한 근원적인 문제에 대응하기 위해 전세계적으로 최근에 시작 된 연구가 바로 인공윤리에이전트(Artificial Moral Agent) 기술로서, 이 기술을 로봇에 적용하면 로봇이 애매하거나 복잡한 상황에서 사람이 납득할만한 도덕적 결정을 스스로 내릴 수 있게 된다.

그러나 로봇이 도덕적 결정을 스스로 내리는 것을 받아들이기 위해서는 수많은 단계의 이론적 연구와 기술 개발, 그리고 각 분야 전문가와 사회적 리더들 간의 합의가 필요한 실정이다.

이 사이트는 동아대학교 전자공학과의 김종욱 교수 팀과 서울교육대학교 윤리교육과의 변순용 교수 팀, 그리고 각 분야의 수많은 전문가들이 합심하여 2016년부터 2021년까지 만10세 어린이 수준의 윤리적 판단을 할 수 있는 인공윤리 에이전트를 오픈소스로 함께 개발하는 과정을 생생하게 기록하고, 그 과정에서 개발되는 소스코드와 기술들을 공유하며, 수많은 사람들의 다양한 의견을 수렴하는 장이 될 것이다.

하루가 다르게 발전하는 첨단기술로 더욱더 각박해져가고 인간의 숭고한 정신이 조금씩 매몰되어 가는 현시대에 이 공간이 작은 옹달샘 같은 곳이 될 수 있기를 기대한다.

2016년 11월
승학산 자락에서 김종욱 씀