まさおレポート

当ブログへようこそ。広範囲を記事にしていますので右欄のカテゴリー分類から入ると関連記事へのアクセスに便利です。 

AIのゆくえ 倫理学がAI時代に再び脚光を

2024-06-18 | AIの先にあるもの

ちょっとしたきっかけで慶応大学文学部公開講座「交流する文学部」を聴きに行った。懐かしい田町に娘と降り立ち、高校生向けの英文学などが中心の話かなと予測しながら行くと随分と意外感を持った。

石田京子氏は倫理学を寺澤悠理氏は心理学を話したのであれっと思って聴いた。高校生で理解できるレベルの話ではない内容を直球で投げてきたので帰って好感を持てた。

石田京子氏は倫理学について話したがわたしの聴力がマイクに合わないのかほとんど聞き取れなかったので所々聞き取れるのと配られたレジメやスクリーン映像でカバーしながら聴いた。

カントやニーチェ、ショーペンハウワーが登場して法と感情などの興味深い話をされた。詳しくは著作を読んでみることにする。

ただ内容と直結しない勝手な思惑なのだが何故か今後のAIのゆくえと倫理学は相当関係があるなあ、古色騒然としたイメージを持っていた倫理学がこれからAIの倫理学として脚光を浴びるのではないかと一人勝手な思いに囚われていた。


倫理学が今後のAIにどう対応できるか。

カントの倫理学は行動の道徳性を判断するための基準であり、

「自分が行おうとしている行為が全ての人にとって普遍的な法則として成り立つかどうかを考え、その答えが肯定的であればその行為は道徳的である」

「他人を手段としてのみ利用するのではなく、常に目的として尊重する」が中心らしい。

AIの行動や決定が全ての状況で適用可能かどうかを評価することが必要で、AIが特定の状況で行う判断が他の全ての状況でも倫理的に正当化されるかを検討することがポイントだという。AIの行動が一貫性を持ち、偏りや差別を排除する助けになる。

AIが人間を手段として扱わず、常に人間の尊厳と権利を目的として尊重するように設計されることが重要で、これには、プライバシーの保護や人間の意思決定の尊重などが含まれる。

自動運転車が事故を避けるための決定をする際、全ての乗員や歩行者に対して公平であるかを検討する必要がある。また、人命を尊重し、事故を最小限に抑えるように設計されるべきという当然のテーマも導かれる。

AIがカントの倫理学に基づいて設計・運用されるためには、倫理的ガバナンスが不可欠で倫理的基準を設定し、その基準に基づいてAIの開発・運用を監視する仕組みが含まれる。また、AIの透明性を確保し、AIの決定過程が理解可能で説明可能であることも重要。

カントの倫理学を自動運転車のトロッコ問題に具体的に当てはめるとどうなるか。

トロッコ問題とは、制御不能のトロッコが線路を進み、そのままでは5人の作業員が犠牲になるが、別の線路に切り替えると1人の作業員が犠牲になるというジレンマを含んだ問題。

自動運転車においても、同様のジレンマが発生する可能性があり、例えば、自動運転車が直進すれば複数の歩行者に衝突するが、方向を変えると1人の歩行者に衝突する場合など。

カントの普遍化可能性の原則に基づくと、「特定の人を犠牲にして他の人を救う」という行為は普遍的に許容されるべきではないという結論に至る。

なぜなら、誰もが自分が犠牲になることを望むわけではなく、そんなルールが普遍化されると社会全体の信頼が崩れてしまうから。

自動運転車が「犠牲にする人」を選ぶという行為自体が、この原則に反することになる。

トロッコ問題のような極端な状況では、自動運転車が特定の人を犠牲にする決定をするのではなく、可能な限り中立的に行動することが求められ車両が自動的に停止する、もしくは最も被害が少ない方法で減速するなど。


まあこういったアルゴリズムは何も大層にカントとの関係を議論せずとも一般通念で判断できるレベルかもしれないが、学問として研究してきた倫理学者等の意見に耳を傾けることも大事なのだろうとの思いを持つ。

しかし得てして一般通念では解決不可能な問題も今後多発するかもしれない。アルゴリズムに寄与するかどうかは別問題として。

産業革命でもカントの倫理学的判断が有効であったという。AIの行方という今まで人類が直面したことのないテーマに今まで古色騒然としたと一般に思われてきた倫理学が改めて人類の行方を決める問題に重要になってきたのだな。


以下参考MEMO

カントは法や道徳が感情によるべきではないと「義務倫理」理性と普遍的な法則に基づく行動を強調。個々の感情や欲望に依存してはならないと主張した。

アルゴリズムの意思決定プロセスは透明であり、その理由が明確に説明できるようにすること。

自動運転車のアルゴリズムは、感情に左右されず、理性に基づいた判断を行うべき。センサーやカメラから得られる客観的データに基づいて判断すること。すべての判断において一貫した基準を適用すること。

トロッコ問題のようなジレンマにおいて、自動運転車は以下のように対応するべき最初の目標は可能な限り衝突を回避すること。例えば、急ブレーキや方向転換を行い、全ての人命を守るための最善の努力をする。

特定の人を犠牲にするような選択を避ける。例えば、「常に最小限の被害を与える方向に車を動かす」という普遍的なルールに従う。

自動運転車のアルゴリズムに対して倫理的な監査を定期的に行い、倫理的基準に従っているかをチェックする。倫理委員会によるレビューも含める。

自動運転車の設計者とメーカーに対して、普遍的かつ倫理的な基準に基づいたアルゴリズムを採用することを義務付ける。自動運転車の意思決定プロセスの透明性を確保するために、アルゴリズムの動作や判断基準を公開し、説明可能な形にすることを法律で要求する。

ニーチェとショーペンハウアーの哲学は、カントの倫理学と異なり、特に自動運転車のような現代のテクノロジーに応用する際には、独自の視点を提供。

ニーチェの哲学は、力の意志(Will to Power)、自己超越、価値の転換を中心としています。彼は伝統的な道徳や宗教を批判し、新しい価値観の創造を提唱。

ニーチェの視点からは、自動運転車のアルゴリズムは固定的な道徳規範に従うのではなく、状況に応じて柔軟に適応するべきです。これは、AIが学習し、自己改善する能力を持つべきであることを示唆。

ショーペンハウアーの共感に基づく倫理観は「ケア倫理」として発展し個々の関係性や具体的な状況に重きを置き、他者の苦痛を理解し軽減することを重視。

自動運転車の設計において、特に事故が避けられない場合に人々の苦痛を最小限にするための方策が考慮されるべき。これは、車両がどのように衝突を回避し、最も少ない被害をもたらすかをアルゴリズムに組み込むことを意味する。

功利主義は、最大多数の最大幸福を追求する理論です。これは、自動運転車が可能な限り多くの人々にとって最良の結果をもたらすように設計されるべきことを示唆。

倫理学の正当性を担保するためには、以下のいくつかの要素が必要です。これらの要素は、理論の内在的な一貫性、実践的な適用可能性、社会的合意、専門家の検証など、多岐にわたる。

倫理理論は、哲学者や倫理学者によって厳密に検証され、学術的な議論を経て発展していく。

倫理理論の適用に関する実証的なデータと研究も重要でたとえば、自動運転車の倫理的アルゴリズムの効果を評価するための実験やシミュレーション、フィードバックループなどが含まれます。これにより、理論が現実の状況でどのように機能するか検証。

スタンフォード大学のFei-Fei LiとChris Gerdesは、AIの未来と自動運転車に関する倫理的・技術的な課題について研究、AIが人間の倫理的判断をどのように再現し、最適化できるかを探求。

シラキュース大学の自律システム政策研究所(ASPI)は、技術、法律、社会的影響の観点から自律システムを研究。Baobao Zhangは、AIシステムのリスク分類と公共政策の提言に取り組んでいる、一般市民を巻き込んだ意見交換行っている​。

MITの「Moral Machine」プロジェクトは、自動運転車が避けられない事故の際にどのような倫理的決定を行うべきかをシミュレーションすることで、社会的に受け入れられる解決策を模索。このプロジェクトでは、事故の際に命を救う優先順位についての一般的な意見を収集し、法整備の前に社会的合意を形成することの重要性を強調している​。

ドイツの交通省が発表した報告書では、自動運転車が年齢や性別に基づいて生命の価値を判断することは道徳的に許容されないとされている。このアプローチは、カントの普遍的な法則の理念に沿っている。

 MITのMoral Machineプロジェクトでは、事故が避けられない場合にどのような選択が最も少ない苦痛をもたらすかをシミュレーションしている。この研究は、共感と苦痛の最小化を考慮したもの​。

AIシステムの設計において、自己改善し続けるアルゴリズムや、状況に応じて最適な行動を選択できる能力を持たせることは、ニーチェの価値創造の理念に沿ったアプローチ。

功利主義は、最大多数の最大幸福を追求する倫理学の理論であり、AI倫理にも強い影響を与えています。現代のAIシステムは、自動運転車の倫理的設計において、最も少ない死傷者を出す選択をするという功利主義的なアプローチ​ 。

 
 

コメントを投稿

ブログ作成者から承認されるまでコメントは反映されません。