このコンテンツは、「人工知能の倫理」シリーズの2番目のトピックであり、最近まで倫理の問題が提起されてからの主要な問題と議論の変化を探ります。最初のトピックは「人工知能に倫理は必要か?'この内容はからの続きなので、まずはチェックすることをおすすめします。
人工知能倫理:01.人工知能には倫理が必要か? 見に行く
ロボット工学や人工知能技術の発展に伴い、倫理的な問題が注目の課題となっています。人間との共存、開発者の責任、プライバシー、今後の開発の方向性など、人工知能が人類の利益になることを前提に、さまざまな議論が行われました。その始まりとも言えるアシモフのロボット三原則*から、近年の知的情報社会に至るまで、歴史的な議論を見ていきます。
アシモフのロボット三原理
人工知能倫理の最も広く知られている起源は、アイザック・アシモフによって提唱されたロボット工学の三原則です。サイエンスフィクションの巨匠であり、1942年に出版された短編小説「Runaround***」を通じて提唱し、詳細は以下の通りです。
第一法則
ロボットは人間を傷つけたり、何もしないことで人間に危害を加えたりしてはなりません。ロボットは、行動しないことで人間に危害を加えたり、人間に危害を加えたりしてはなりません。****
第二法則
ロボットは、ヒューマニスティックによって与えられた命令に従わなければなりません。ただし、そのような命令が第一法則と矛盾する場合を除きます。ロボットは、命令が第一法則に違反する場合を除き、人間の命令に従わなければなりません。
第三法則
ロボットは自身の脅威を防がなければなりません。ただし、その保護が第一法則または第二法則に抵触しない限りは。ロボットは、その存在を守らなければなりません。ただし、その保護が第1および第2のルールに違反する場合を除きます。
しかし、自分で考える(今も開発できない)強力な人工知能*****がターゲットであり、社会的な合意や検証を経ていないという限界があります。実際、アシモフ自身は、不完全な原則は3つしかないと考え、1985年にリリースされたダウエルロボットとエンパイア******を通じて0の原則を追加しました。これは既存の原則よりも優先される最上位の原則であり、ロボットは一人の利益のためではなく、全人類の利益のために機能しなければならないことを明確にしています。
ゼロスの法則
ロボットは人類に危害を加えたり、何もしないことで人類に危害を加えたりしてはなりません。ロボットは、行動を起こさないことで人類に危害を加えたり、人類に危害を加えたりしてはなりません。
しかし、アシモフのロボット三原則はずいぶん前に提案されたもので、今それを実際に適用するのは難しいです。しかし、人工知能倫理の起源から人間(人類)に利益をもたらす人工知能が存在する理由を示唆しているので、それは今日でも通用する大きなインスピレーションと影響でした。
倫理的責任の強調
技術が急速に発展し、ロボットの応用分野が拡大するにつれて、2000年代以降、国際的な議論が活発になり始めました。しかし、それまでは高度なロボットや人工知能はSF小説のように捉えられ、専門家による議論はアシモフの提案から大きく逸脱することはありませんでした。
その後、2010年代には、今日の人工知能に関連する重要な問題であるプライバシーの問題が提起されました。現在、人工知能の性能と品質を左右する主な要因は、機械学習のための膨大な量のデータの取得であることを考えると、これは大きな前進です。
最後に、2016年に、マイクロソフトのCEOであるサティア・ナデラ*は、次の6つの人工知能ルール**を提案しました。Nadella は、人工知能アルゴリズムの設計におけるプライバシー保護のほか、透明性、責任、差別禁止など、現在の AI 倫理に関連する重要な問題に焦点を当てています。
サティア・ナデラ、人工知能のルール
1。人工知能は人間を助けるために開発されなければならない。 人工知能は人類を助けるように設計されねばならない
2。人工知能は透明でなければならない。 A.I. は透明でなければなりません。
3。人工知能は人間の尊厳を損なうことなく効率を最大化しなければならない。 人工知能は人々の尊厳を犠牲にすることなく効率を最大化しなければならない。
4。人工知能はプライバシーを保護しなければならない。 人工知能はインテリジェントなプライバシーを実現するように設計されなければなりません。
5。人工知能が責任を負わなければなりません。 人間が意図しない危害を取り消せるように、人工知能にはアルゴリズムによる危害が必要だ。
6。人工知能は差別や偏見を防がなければならない。 人工知能は、長いヒューリスティックが批判に利用されないように、偏見をきちんと防ぎ、代表的な研究を行う必要があります。
長期的視点の方向性
テクノロジーの進歩に伴い、人間の能力を超える汎用人工知能(※)の出現に伴うリスクに備えようとする動きがあります。ここまで論じた課題に加えて、人工知能を使った軍拡競争についての警告や、超知能の望ましい発展方向について考えるようになりました**。
一例として、2017年、フューチャー・オブ・ライフ・リサーチ・インスティテュート***は、米国カリフォルニア州アシロマで開催された会議で、以下の人工知能の原則を発表しました。
アシローマ AI 原則****
人工知能は、世界中の人々が毎日使用する便利なツールをすでに提供しています。以下の原則に基づいて、人工知能の継続的な開発が行われています。 今後数十年、あるいは数百年にわたって、人々を助け、力を与える素晴らしい機会を提供する私がやります。
研究上の問題
1) 研究目標
人工知能研究の目標は、方向性のない知能を開発することではありません 人間に有用で有益な利益をもたらすインテリジェンスそれは開発についてです。
2) 研究資金
人工知能への投資には、コンピュータサイエンス、経済学、法律、倫理、社会調査などの難しい問題を含め、有益な利用を確保するための研究資金が伴わなければなりません。
3) 科学政策のつながり
人工知能研究者と政策立案者の間には、建設的かつ健全な交流が必要です。
4) 研究文化
AI 研究者と開発者の間には、コラボレーション、信頼、透明性の文化を育む必要があります。
5) 競争の回避
人工知能システムの開発チームは、安全基準に備えて開発が不十分にならないように積極的に協力する必要があります。
倫理と価値観
6) 安全 (安全)
人工知能システムは、その運用期間を通じて安全で安心できるものでなければならず、その安全性は、適用可能かつ実行可能な場合に検証可能でなければなりません。
7) 障害の透明性 (障害の透明性)
人工知能システムが被害を引き起こした場合、その原因を特定できる必要があります。
8) 司法の透明性 (司法の透明性)
司法制度の決定に自律システムを使用する場合、権威ある人権団体は監査の際に満足のいく説明を提供できなければなりません。
9) 責任 (責任)
高度な人工知能システムの設計者と設計者は、人工知能の使用、誤用、行動がもたらす道徳的影響の利害関係者であり、それに応じてその影響を形作る責任と機会を持っています。
10) 値の配置 (値の配置)
高度に自律的な人工知能システムは、その目標と行動が運用中の人間の価値観と一致するように設計する必要があります。
11) ヒューマンバリュー (ヒューマンバリュー)
人工知能システムは、人間の尊厳、権利、自由、文化的多様性の理想に合うように設計され、運用されなければなりません。
12) 個人のプライバシー
人工知能システムからのデータを分析して活用できることを前提として、人々は自分が生み出したデータにアクセスし、管理し、制御する権利を持たなければなりません。
13) 自由とプライバシー (自由とプライバシー)
個人情報に関連する人工知能の使用は、人々の実際の自由または認識されている自由を過度に低下させてはなりません。
14) 共有利益 (共有利益)
人工知能技術は、できるだけ多くの人々に利益をもたらし、力を与える必要があります。
15) 繁栄の共有 (繁栄の共有)
人工知能によって達成された経済的繁栄は、人類のあらゆる利益のために広く共有されなければなりません。
16) ヒューマンコントロール (ヒューマンコントロール)
人間が選んだ目標を達成するために、人間は意思決定を人工知能システムに委任する方法と委任するかどうかを選択する必要があります。
17) 非破壊 (非転覆)
高度な人工知能システムの制御によって得られる能力は、健全な社会が目指す社会的プロセスや是正プロセスを覆すものではなく、それらのプロセスを尊重し、改善しなければなりません。
18) 人工知能軍拡競争 (AI 軍拡競争)
致死的な人工知能兵器をめぐる軍拡競争は避けなければなりません。
長期的な問題
19) 人工知能能力への注意 (能力調査)
合意がないため、将来の人工知能能力の上限についての確固たる前提は避けるべきです。
20) 意義 (意義)
高度なAIは地球上の生命の歴史に大きな変化をもたらす可能性があるため、それに対応する利益と資源を計画して管理する必要があります。
21) リスク (リスク)
人工知能システムによってもたらされるリスク、特に重大なリスクや実存的リスクは、予想される影響に沿った計画と緩和の取り組みによってサポートされなければなりません。
22)再帰的自己検査(再帰的自己検査)
人工知能システムが、再帰的な自己複製や自己改善によって量や質が急速に向上した場合、設計されたシステムには厳格な安全管理措置が講じられなければなりません。
23)コモン・グッド(コモン・グッド)
スーパーインテリジェンスは、広く共有される倫理的理想のために、また少数の国や組織だけでなく、全人類の利益のために開発されなければなりません。
上記の23の原則をよく見てみると、これらは究極的には人類の利益のためであるため、アシモフのロボット3原則を受け継いでいることがわかります。しかし同時に、人工知能の倫理に対する人間の懸念の深さを発見することもでき、それは次のレベルへと進んでいます。
序文から 「今後数十年、数百年にわたって、人々を助け、力を与える素晴らしい機会を提供すること」人工知能研究の目的を明確にすることから始める 「厳格な安全管理措置を講じる必要があります。」潜在的なリスクについて警告し、 「1つの国や組織だけでなく、全人類の利益のためにのみ開発すべきです。」宣言で締めくくり、今後の方向性を提案しました。
これまで、「人工知能倫理」シリーズの第2回目のトピックは、「AIはここまで倫理的でもある」というものでした。この連載では、3つ目のトピックである「人間中心のAIとLETRの倫理原則」に続きます。
人工知能倫理
人工知能倫理:01.人工知能には倫理が必要か? 人工知能倫理:02.ここまでのAI倫理人工知能倫理:03.人間中心の人工知能とLETRの倫理原則