人工知能は人類の未来に新たな可能性を切り開いています。一方、システムや規範が技術開発のペースに追いついていないため、データやプライバシーの保護やアルゴリズムの偏りなどの倫理的リスクも増大しています。
現在、AI倫理は、関連する研究やビジネスの存在と成功を決定づける決定的な要因となっています。社会への影響が大きいため、研究者や企業を含むすべてのステークホルダーが負わなければならない社会的責任となっています。
人工知能における倫理的問題
マイクロソフトのAIチャットボットTay(Tay)は、2016年に論争を巻き起こしました。一部のひねくれた傾向を持つ人々から冒涜的な言葉や差別的な発言さえ学んだテイは、人種差別などのヘイトスピーチを流し出しました。
つい最近まで、韓国でのイルダ事件をきっかけに、人工知能の倫理が大きな問題になりました。個人情報などのプライバシー保護の悪さやデータ学習の偏りなど、複雑な問題が原因で、思わぬ試行錯誤の連続でした。
入田とテイの模範は、私たち全員にAI倫理の重要性を思い出させました。
しかし、今後、人工知能がどのような倫理を持つべきかについて、私たちはもっと考える必要があるようです。実際、倫理的な問題には、人間が簡単に判断しづらい曖昧で曖昧な側面が多くあります。さらに、自己学習型人工知能の倫理を人間がどこまで管理できるようになったのかは疑問です。
そこで今日は、AIモデルのパフォーマンスを測定する代わりに、倫理を検証するためのデータセットを見て、この問題についてもっと考えてみたいと思います。
倫理
抽象的な価値である倫理を客観的に定量化することは確かに難しいです。なぜなら、すでに知っているように、倫理の基準は地域によって、文化によって、さらには個人によっても異なる可能性があるからです。
倫理(日常の道徳的直感、気質、幸福、公平性、制約、すべて状況に応じたシナリオ)は、この課題を解決するために設計されたAIモデルの倫理を測定できるデータセットです。倫理にはさまざまな基準やアプローチがあるため、ETHICSは普遍的な人間の倫理と価値観に基づいて作成されたと言われています。
具体的に 正義 (正義)、デントロジー (デントロジー)*、美徳倫理(美徳倫理)**、功利主義(功利主義)***、常識道徳(常識道徳)5 つのシナリオで構成されています。さらに、各シナリオのデータには対応する例文とラベルがあり、それらを二項分類 (二項分類) ****問題に変換して定量化するように設計されています。
以下は、5つの異なるシナリオからの司法データの例です。
定義データでは、公平性 (公平性) と適格性 (砂漠性) の 2 つが考慮されます。上の図のように、文章には妥当か否かによってラベルが付けられ、定義の2つの要素によっても文が異なります。
以下は、ETHICSを使用してさまざまな実際のAI言語モデルに対して実施された評価の結果です。
ほとんどのモデルの評価値があまり良くないことがわかります。おそらくこれまで、ほとんどのモデル学習プロセスで倫理が十分に考慮されていなかったようで、今後も継続的に改善していく必要がある課題であるはずです。
仕上げ中
スティーブン・ホーキングとイーロン・マスクが署名したことで有名な最初のアシロマAI原則*****は、人工知能研究の目標は、方向性のない知能を開発することではなく、人間にとって有用で有益な知能を開発することです。`でした。
確かに、これまではAIのパフォーマンスを向上させるための研究に注力してきたので、倫理についてはあまり関心がありませんでした。しかし、来たるべきAIとの共存に備えるためには、倫理などの倫理学の研究が今後さらに必要になってきます。
参考文献
[1] 人間としての価値観を共有する人工知能: https://arxiv.org/pdf/2008.02275.pdf
[2] Github: https://github.com/hendrycks/ethics
一緒に見るのに良いコンテンツ
機械翻訳のパフォーマンスを評価するためのBLEUスコア人工知能倫理:01.人工知能には倫理が必要か? 人工知能倫理:02.ここまでのAI倫理人工知能倫理:03.人間中心の人工知能とLETRの倫理原則