‘인공지능 윤리’ 시리즈의 두 번째 주제인 이번 콘텐츠는 윤리 문제가 제기된 이래 최근까지의 주요 이슈와 논의의 변화를 살펴봅니다. 첫 번째 주제 ‘인공지능도 윤리가 필요할까?’에서 이어지는 내용이니 먼저 확인하고 보실 것을 추천드립니다.
인공지능 윤리: 01. 인공지능도 윤리가 필요할까? 보러가기
로봇 및 인공지능 기술이 발전하면서 윤리 문제는 뜨거운 이슈이자 쟁점이 되었습니다. 인류의 이익을 위한 인공지능을 전제로 인간과의 공존, 개발자의 책임, 프라이버시, 미래 발전 방향 등 다양한 논의가 진행되었죠. 그 시작이라 할 수 있는 아시모프의 로봇 3원칙*부터 최근의 지능정보사회에 이르기까지 역사적인 논의들을 살펴봅니다.
아시모프의 로봇 3원칙
가장 널리 알려진 인공지능 윤리의 기원은 아이작 아시모프가 제안한 로봇 3원칙입니다. SF의 대가인 그가 1942년 발표한 단편 Runaround***을 통해 제안한 것으로 그 내용은 다음과 같습니다.
First Law
A robot may not injure a human being or,through inaction, allow a human being to come to harm. 로봇은 인간에 해를 가하거나, 혹은 행동을 하지 않음으로써 인간에게 해가 가도록 해서는 안 된다.****
Second Law
A robot must obey the orders given it by humanbeings except where such orders would conflict with the First Law. 로봇은 인간이 내리는 명령들에 복종해야만 하며, 단 이러한 명령들이 첫 번째 법칙에 위배될 때에는 예외로 한다.
Third Law
A robot must protect its own existence as longas such protection does not conflict with the First or Second Law. 로봇은 자신의 존재를 보호해야만 하며, 단 그러한 보호가 첫 번째와 두 번째 법칙에 위배될 때에는 예외로 한다.
하지만 (현재도 개발하지 못한) 스스로 사고하는 강인공지능*****이 그 대상이고, 사회적 합의나 검증을 거치지도 않았다는 한계가 있습니다. 실제 아시모프 본인도 3개 원칙 만으로는 불완전하다 생각했는지 이후 1985년 발표한 단표 로봇과 제국******을 통해 0원칙을 추가하죠. 기존 원칙들에 우선하는 최상위 원칙으로 로봇은 한 인간의 이익이 아닌 전 인류를 위해 기능해야 한다는 점을 명확히 한 것입니다.
Zeroth Law
A robot may not harm humanity, or by inaction, allow humanity to come to harm. 로봇은 인류에게 해를 가하거나, 행동을 하지 않음으로써 인류에게 해가 가도록 해서는 안 된다.
다만 아시모프의 로봇 3원칙은 오래 전에 제안되기도 했고, 지금 실제로 적용하기는 어려운 원칙입니다. 하지만 인공지능 윤리의 기원으로 인간(인류)을 이롭게 한다는 인공지능의 존재 이유를 제시하는 등 오늘날까지도 유효한 큰 영감과 영향을 주었습니다.
윤리적 책임의 강조
기술이 급속히 발전하고, 로봇의 활용 분야가 확장되면서 2000년대 이후 국제적 논의가 활발해지기 시작합니다. 하지만 그때까지도 고도로 발달한 로봇이나 인공지능은 공상 과학 속 이야기로 여겨지고 있었고, 전문가들의 논의도 아시모프의 제안에서 크게 벗어나지는 못합니다.
이후 2010년대에 이르러 오늘날 인공지능과 관련해 중요한 이슈인 프라이버시 문제가 제기됩니다. 현재 인공지능의 성능과 품질을 결정하는 핵심 요소가 기계 학습을 위한 방대한 데이터의 확보라는 것을 감안할 때 중대한 진전이었습니다.
이윽고 2016년 마이크로소프트의 CEO 사티아 나델라*는 다음과 같은 인공지능 규칙 6가지**를 제안합니다. 나델라는 인공지능 알고리즘의 설계와 관련하여 프라이버시 보호는 물론 투명성, 책임, 차별 방지 등 오늘날 인공지능 윤리 관련 주요 이슈들에 주목합니다.
사티아 나델라, 인공지능 규칙
1. 인공지능은 인간을 돕기 위해 개발되어야 한다. A.I. mustbe designed to assist humanity.
2. 인공지능은 투명해야 한다. A.I. mustbe transparent.
3. 인공지능은 인간의 존엄성을 파괴하지 않고, 효율성을 극대화해야 한다. A.I. must maximize efficiencies without destroying the dignity of people.
4. 인공지능은 프라이버시를 보호해야 한다. A.I. must be designed for intelligent privacy.
5. 인공지능은 책임성을 가져야 한다. A.I. must have algorithmic accountability so that humans can undo unintended harm.
6. 인공지능은 차별과 편견을 방지해야 한다. A.I. must guard against bias, ensuring proper, and representative research so that the wrong heuristics cannot be used to discriminate.
장기적 관점의 방향성
기술의 고도화에 따라 인간의 능력을 뛰어넘는 인공 일반 지능*의 등장에 따른 위험을 대비하려는 움직임이 일어납니다. 그동안 논의된 이슈 외에 인공지능을 활용한 무기 경쟁에 대한 경고 및 초지능**의 바람직한 발전 방향에 대해서도 고민하게 된 거죠.
대표적으로 2017년 삶의 미래 연구소***는 미국 캘리포니아 아실로마에서 진행된 컨퍼런스를 통해 다음과 같은 인공지능 원칙을 발표합니다.
아실로마 AI 원칙****
인공 지능은 이미 전 세계 사람들이 매일 사용하는 유용한 도구를 제공합니다. 다음과 같은 원칙에 따라, 인공지능의 지속적인 발전은 앞으로 수십 년 또는 수백 년 동안 사람들을 돕고 힘을 실어 줄 놀라운 기회를 제공할 것입니다.
연구 이슈
1) 연구목표
인공지능 연구의 목표는 방향성이 없는 지능을 개발하는 것이 아니라 인간에게 유용하고 이로운 혜택을 주는 지능을 개발하는 것이다.
2) 연구비 지원
인공지능에 대한 투자에는 컴퓨터 과학, 경제, 법, 윤리 및 사회 연구 등의 어려운 질문을 포함해 유익한 이용을 보장하기 위한 연구비 지원이 수반되어야 한다.
3) 과학정책 연결
인공지능 연구자와 정책 입안자 간에 건설적이고 건전한 교류가 있어야 한다.
4) 연구문화
인공지능 연구자와 개발자 간에 협력, 신뢰, 투명성의 문화가 조성되어야 한다.
5) 경쟁 피하기
인공지능 시스템 개발팀들은 안전기준에 대비해 부실한 개발을 피하고자 적극적으로 협력해야 한다.
윤리 및 가치
6) 안전(Safety)
인공지능 시스템은 작동 수명 전반에 걸쳐 안전하고 또 안전해야 하며, 적용 가능하고 실현 가능할 경우 그 안전을 검증할 수 있어야 한다.
7) 장애 투명성(Failure Transparency)
인공지능 시스템이 손상을 일으킬 경우 그 이유를 확인할 수 있어야 한다.
8) 사법적 투명성(Judicial Transparency)
사법제도 결정에 있어 자율시스템이 사용된다면, 권위 있는 인권기구가 감사할 경우 만족스러운 설명을 제공할 수 있어야 한다.
9) 책임(Responsibility)
고급 인공지능 시스템의 디자이너와 설계자는 인공지능의 사용, 오용 및 행동의 도덕적 영향에 관한 이해관계자이며, 이에 따라 그 영향을 형성하는 책임과 기회를 가진다.
10) 가치관 정렬(Value Alignment)
고도로 자율적인 인공지능 시스템은 작동하는 동안 그의 목표와 행동이 인간의 가치와 일치하도록 설계되어야 한다.
11) 인간의 가치(Human Values)
인공지능 시스템은 인간의 존엄성, 권리, 자유 및 문화적 다양성의 이상에 적합하도록 설계되어 운용되어야 한다.
12) 개인정보 보호(Personal Privacy)
인공지능 시스템의 데이터를 분석 및 활용능력의 전제하에, 사람들은 그 자신들이 생산한 데이터를 액세스, 관리 및 통제할 수 있는 권리를 가져야 한다.
13) 자유와 개인정보(Liberty and Privacey)
개인정보에 관한 인공지능의 쓰임이 사람들의 실제 또는 인지된 자유를 부당하게 축소해서는 안된다.
14) 공동이익(Shared Benefit)
인공지능 기술은 최대한 많은 사람에게 혜택을 주고 힘을 실어주어야 한다.
15) 공동번영(Shared Prosperity)
AI에 의해 이루어진 경제적 번영은 인류의 모든 혜택을 위해 널리 공유되어야 한다.
16) 인간의 통제력(Human Control)
인간이 선택한 목표를 달성하기 위해 인간은 의사결정을 인공지능 시스템에 위임하는 방법 및 여부를 선택해야 한다.
17) 비파괴(Non-subversion)
고도화된 인공지능 시스템의 통제로 주어진 능력은 건강한 사회가 지향하는 사회적 및 시정 과정을 뒤엎는 것이 아니라 그 과정을 존중하고 개선해야 한다.
18) 인공지능 무기 경쟁(AI Arms Race)
치명적인 인공지능 무기의 군비 경쟁은 피해야 한다.
장기 이슈
19) 인공지능 능력에 관한 주의(Capability Casution)
합의가 없으므로 향후 인공지능 능력의 상한치에 관한 굳은 전제는 피해야 한다.
20) 중요성(Importance)
고급 AI는 지구 생명의 역사에 심각한 변화를 가져올 수 있으므로, 그에 상응한 관심과 자원을 계획하고 관리해야 한다.
21) 위험(Risks)
인공지능 시스템이 초래하는 위험, 특히 치명적인 또는 실존적 위험에는, 예상된 영향에 맞는 계획 및 완화 노력이 뒷받침되어야 한다.
22) 재귀적 자기 개선(Recursive Self-Imrovement)
인공지능 시스템이 재귀적 자기 복제나 자기 개선을 통하여 빠른 수적 또는 품질 증가를 초래한다면, 설계된 시스템은 엄격한 안전 및 통제 조치를 받아야 한다.
23) 공동의 선(Common Good)
초지능은 널리 공유되는 윤리적 이상을 위해, 그리고 몇몇 국가나 조직이 아닌 모든 인류의 이익을 위해 개발되어야 한다.
이상의 23가지 원칙을 자세히 살펴보면 결국 인류의 이익을 위한다는 점에서 아시모프의 로봇 3원칙을 계승하고 있다는 것을 알 수 있습니다. 하지만 그와 동시에 이후 한 차원 더 진일보한 인류의 인공지능 윤리에 대한 고민의 깊이를 발견할 수 있습니다.
서문에서 “앞으로 수십년 또는 수백년 동안 사람들을 돕고 힘을 줄 수 있는 놀라운 기회를 제공하기 위해서”라고 인공지능 연구의 목적을 명확히 하는 데서 시작해 “엄격한 안전 및 통제 조치를 받아야 한다.”며 잠재된 위험성을 경고하고, “한 국가나 조직이 아니라 모든 인류의 이익을 위해서만 개발돼야 한다.”는 선언으로 마무리하며 앞으로의 방향성을 제시했습니다.
지금까지 ‘인공지능 윤리’에 대한 연재의 두 번째 주제인 '인공지능도 윤리 여기까지'였습니다. 이 시리즈는 이어서 세 번째 주제 '사람 중심 AI와 LETR 윤리 원칙’으로 이어지게 됩니다.
인공지능 윤리
인공지능 윤리: 01. 인공지능도 윤리가 필요할까? 인공지능 윤리: 02. 인공지능 윤리 여기까지인공지능 윤리: 03. 사람중심 AI와 LETR 윤리원칙