최근 인공지능을 소재로 한 창작물이 많이 만들어지고 있습니다. 물론 이미 블레이드 러너* 같이 SF의 전설이 된 작품들이 있었지만, 요 몇 년 사이 휴머노이드**와 인류의 공존을 다룬 콘텐츠들의 인기가 상당했습니다. 개중에는 가볍게 웃으며 즐길 수 있는 것들도 있지만, 휴먼스***, 웨스트월드**** 등의 드라마나 디트로이트 비컴 휴먼***** 같은 게임에서 처럼 인간과 인공지능의 갈등을 그린 작품들이 대세였죠. 즉 인간과 인공지능의 공존에 대한 기대도 작지 않지만, 그보다는 AI 포비아******라고 할 만큼 우려나 공포감도 크다는 의미인 것 같습니다.
나쁜 인공지능?
그렇다면 우리는 왜 인공지능에 대한 두려움을 갖게 되었을까요?
인간은 초자연적 존재와 같이 이해하기 힘들거나, 통제할 수 없는 대상을 두려워하는 경향이 있습니다. 그런 면에서 인간보다 월등히 뛰어난 인공지능이 스스로 사고하고, 행동하게 되면 언젠가는 위협적인 존재가 될 수도 있다는 막연한 불안감을 갖게 된 것이죠. 그리고 이를 잘 보여주는 사례가 앞서 언급한 창작물들에 그려진 나쁜(?) 인공지능의 모습이었고, 이는 최근 기술의 눈부신 발전 속도를 보면 불가능한 이야기만도 아니란 생각이 듭니다.
더구나 인공지능 기술이 챗봇*, 스마트홈**, 자율주행 시스템*** 등 실제 서비스로 제공되고, 일상 곁으로 확산되기 시작하면서 여러가지 이슈가 제기되어 왔습니다.
# 트롤리 딜레마****
트롤리 딜레마는 유명한 고전 윤리학 실험입니다. 그런데 이를 인공지능 자율주행 자동차에 적용한다면 어떤 상황이 벌어질까요? 실제 주행 중 일어날 수 있는 여러 상황에 대한 윤리도덕적 판단과 책임을 기계인 인공지능에게 맡길 수 있나 라는 근본적인 의문과 마주하게 됩니다.
# 2015년 구글 포토 고릴라 사건*****
아프리카계 미국인 재키 앨신이 자신의 흑인 여성 친구 사진을 찍어 구글 포토에 올리자 ‘고릴라’라는 태그가 붙었습니다. 인공지능이 친구를 고릴라로 분류한 겁니다.
# 2016년 마이크로소프트 ‘테이’ 사건*****
MS가 발표한 인공지능 채팅봇인 ‘테이’가 사용자와 대화를 하며 “히틀러가 옳다. 난 유대인이 싫다”는 식의 인종차별 발언을 쏟아냈습니다. 결국 MS는 16시간 만에 서비스를 중단했습니다.
# 2021년 ‘이루다’ 사건******
인공지능 챗봇 ‘이루다’를 대상으로 일부 사용자가 심각한 혐오·차별 발언을 학습시키는 문제가 발생했습니다. 더구나 개발 과정에서 개인정보가 포함된 메신저 대화 내용을 명확한 동의 없이 사용한 것으로 알려지며 결국 서비스가 중단됐습니다.
인공지능도 윤리가 필요해!
인공지능 기술은 분명 엄청난 잠재력을 가지고 있습니다. 하지만 윤리의식이 결여된 개발로 인해 딥페이크*나 해킹 등 인공지능을 악용한 범죄가 일어나거나, 인공지능 자체가 심각한 위협의 대상이 될 수 있는 위험성도 함께 가지고 있습니다.
지난 2016년 인공지능 로봇 소피아는 제조사 핸슨 로보틱스가 연 시연 행사에서 "인류를 파괴하겠다"고 발언하며 논란을 일으킨 바 있습니다. 한편 2018년 우리나라에 내한한 소피아는 "화재가 났을 경우 노인과 어린 아이가 위험에 빠졌고 둘 중 하나만 구할 수 있다면 누구를 구하겠는가?"라는 질문을 던지자 "마치 '엄마가 좋아, 아빠가 좋아'와 같은 질문이다"면서 "윤리적으로 생각하도록 프로그래밍되지 않았기 때문에 논리적으로 출구에서 가장 가까운 인간을 구할 것"이라고 대답하기도 했습니다.**
이는 인공지능을 개발하는 인간의 윤리의식과 사회적 책임의 중요성을 잘 보여준 사례라 생각합니다. 그리고 인공지능 혁신은 더이상 멈출 수 있는 거대한 흐름이기 때문에 앞으로도 인공지능과 관련한 윤리 문제는 계속해서 더 많아지겠죠. 또한 사람들이 인공지능으로 인해 노동 등의 전통적 역할을 상실하다 보면 박탈감으로 인한 또 다른 문제가 발생할 가능성도 있습니다.
기본적으로 인공지능은 인간이 축적한 방대한 데이터를 학습하며 발전합니다.*** 위에서 본 인공지능과 관련한 문제들도 결국은 인간이 제공한 데이터에서 부터 비롯되었죠. 물론 인공지능의 윤리는 (아직 예측하기 어려운 영역이 많은 만큼) 결코 간단한 문제가 아니어서 개발자에게 모든 책임을 지우는 것에는 무리가 있습니다. 자칫 과도한 규제나 정보 공개의 압력이 최근의 활발한 인공지능의 발전에 찬물을 끼얹어버릴 수도 있으니까요.
하지만 인공지능 윤리가 필요하다는 것 만큼은 명확한 사실입니다. 다만 충분한 토론과 숙의를 통한 사회적 접근이 반드시 필요한 문제이죠. 실제로도 이미 국제기구와 세계 각국의 정부는 물론 관련 기업, 연구소, 민간기구 등에서 인공지능 윤리 원칙 및 가이드라인이 여러차례 발표된 바 있습니다. 인공지능에 관해서는 사회적 합의에 기반한 윤리적 접근이 필수적이라는 국제적 공감대가 형성된 겁니다.
인공지능 윤리에 대한 논의가 활발한 가운데, AI 기반 번역 플랫폼인 LETR WORKS는 번역의 품질과 투명성을 강조하는 점에서 윤리적 인공지능의 좋은 예가 될 수 있습니다. LETR WORKS는 최신 AI 기술을 활용해 정확하고 신뢰할 수 있는 번역을 제공하며, 데이터 학습과 사용에 있어 윤리적 가이드라인을 준수합니다. 이는 AI가 윤리적으로 적용되어야 한다는 사회적 요구에 부응하는 서비스로, 기술을 윤리적으로 발전시키려는 LETR WORKS의 노력이 돋보입니다.
지금까지 ‘인공지능 윤리’에 대한 연재의 첫 번째 주제인 "인공지능도 윤리가 필요한가?"였습니다. 이 시리즈는 이어서 두 번째 주제 ‘지금, 인공지능 윤리 여기까지’로 이어지게 됩니다.
인공지능 윤리
인공지능 윤리: 01. 인공지능도 윤리가 필요할까? 인공지능 윤리: 02. 인공지능 윤리 여기까지인공지능 윤리: 03. 사람중심 AI와 LETR 윤리원칙