最近では、人工知能をベースにした創作作品が数多く生み出されています。もちろん、ブレードランナー*のようにサイエンスフィクションの伝説となった作品はすでにありますが、ここ数年、ヒューマノイド**と人類の共存を扱った内容がかなり人気を集めています。軽く笑いながら楽しめるものもありますが、ヒューマン***やウエストワールド****などのドラマや、デトロイトビカムヒューマン*****などのゲームなど、人間と人工知能の対立を描いた作品が人気でした。つまり、人間と人工知能の共存への期待は決して小さくはないが、「AI恐怖症(AI恐怖症)******」と呼ばれるのは大きな懸念と恐怖感があるようだ。
悪い人工知能?
では、なぜ私たちは人工知能を恐れているのでしょうか?
人間は、超自然的な存在など、理解しにくかったり、制御できないものを恐れる傾向があります。その点では、人間よりはるかに優れている人工知能が、自分で考えて行動すれば、いつか脅威になるのではないかという漠然とした不安感があります。また、その良い例が「悪い (?)」です。先ほど紹介した作品に描かれたのは人工知能のイメージで、近年の技術発展の著しいペースを見れば、これは決してありえない話ではないと思います。
さらに、チャットボット*、スマートホーム**、自動運転システム***などの実際のサービスとして人工知能技術が提供され、日常生活に広がり始めたことで、さまざまな問題が提起されています。
# トロリーディレマ****
トロリージレンマは有名な古典倫理実験です。しかし、これを人工知能の自動運転車に応用したらどうなるでしょうか。実際の運転中に起こり得る様々な状況に対して、倫理的、道徳的な判断と責任を機械である人工知能に委ねることができるのか、という根本的な疑問に直面することになります。
# 2015 Google フォトゴリラ事件*****
アフリカ系アメリカ人のジャッキー・アルシンが黒人女性の友人の写真を撮ってGoogleフォトに投稿したところ、「ゴリラ」というタグが追加されました。人工知能は友達をゴリラに分類しました。
#2016 マイクロソフト 'Tay' インシデント*****
MSが発表した人工知能チャットボット「Teiさん」がユーザーに話しかけ、「ヒトラーの言うことは正しい。彼は「ユダヤ人は嫌いだ」など人種差別的な発言を繰り広げた。結局、MSは16時間後にサービスを停止しました。
# 2021「フルフィル」インシデント******
一部のユーザーが人工知能チャットボット「Iruda」を標的にして、深刻なヘイトや差別のコメントを知ってしまうという問題が発生しました。さらに、開発過程で、個人情報を含むメッセンジャーの会話が明確な同意なしに使われたことが分かり、最終的にはサービスが中止されました。
人工知能には倫理も必要!
人工知能技術は確かに大きな可能性を秘めています。しかし、倫理意識の欠如した開発が原因で、ディープフェイク*やハッキングなど人工知能を悪用する犯罪が発生し、人工知能自体が深刻な脅威となるリスクもあります。
2016年、人工知能ロボットのソフィアは、メーカーのハンソン・ロボティクスが開催したデモンストレーションイベントで「人類を破壊する」と言って論争を巻き起こしました。一方、2018年に韓国に来たソフィアは、「火事になったらお年寄りや幼い子どもたちが危険にさらされる。そのうちの1人しか救えないとしたら、あなたは誰を救う?」と話した。「私は母が好きだ、父が好きだ」と聞かれたとき、彼女は「私は母が好きだ」と答え、「出口に最も近い人を論理的に救うつもりだ。倫理的に考えるようにプログラムされていないからだ。」**
これは、人工知能の開発における人間の倫理と社会的責任の重要性を示す良い例だと思います。また、AIイノベーションは止められる大きなトレンドなので、人工知能に関する倫理的問題は今後も増え続けるでしょう。また、人工知能によって労働などの従来の役割が失われると、剥奪感による別の問題が発生する可能性もあります。
基本的に、人工知能は人間が蓄積した膨大な量のデータを学習することによって発展します。*** 結局のところ、上記の人工知能に関連する問題も、人間から提供されたデータに起因していました。もちろん、人工知能の倫理は (まだ予測が難しい分野が多いため) 決して単純な問題ではないので、すべての責任を開発者に負わせることは不可能です。過度な規制や情報開示の圧力は、最近の活発な人工知能の発展に冷水を注ぐことにもなりかねません。
しかし、人工知能倫理が必要であることは明らかです。しかし、それは十分な議論と議論を通じた社会的なアプローチが求められる課題です。実際、人工知能の倫理原則やガイドラインは、国際機関や世界中の政府、関連企業、研究機関、民間団体などですでに何度か発表されています。人工知能に関しては、社会的合意に基づく倫理的アプローチが不可欠であるという国際的なコンセンサスが形成されています。
これまでの「AI倫理」に関するシリーズの最初のトピックは、「人工知能にも倫理は必要か?」です。それだけでした。続いてこの連載は、2つ目のトピック「人工知能の現在とこれまでの倫理」に続きます。
人工知能倫理
人工知能倫理:01.人工知能には倫理が必要か? 人工知能倫理:02.ここまでのAI倫理人工知能倫理:03.人間中心の人工知能とLETRの倫理原則