AIプログラミングの予備校

幅広い年齢層の方に基礎から丁寧に指導します。

AIにおける倫理問題(倫理は誰が守る?)

2024-09-05 20:39:22 | 日記

AIの倫理

AIの社会に大きく関わることで

浮上するのが倫理問題である。

 

倫理は法律・慣習・道徳など

を含めた人間の価値観に影響

を与える善悪に関する領域で、

元来は、人間の道具である機

械が関わる領域ではない。

 

しかし、AIには従来の機械に

無かった高度な判断を行う能

力があり、現在では、人間が

関わる膨大な情報を瞬時に処

理できる、数少ない存在とな

りつつある。

 

場合によっては、人間よりも

信頼のおける判断ができる。

 

その結果、AIは人間だけが扱

えていた善悪を含めた価値観

に影響を与えられるほどの存

在となった。

 

ところが、ここで問題が生じ

るのである。

 

それは、

①その価値観に正解がない、

②統計的な多数派が正しい

 わけではない、

という点である。

 

AIは、正解がなくても学習が

できる存在で、子どものよう

に人間の価値観を学ぶ。

 

それ故、答えのない問題に対し

て、AIに何をどう教えるべきか

という議論を怠れば、AIは社会

に悪影響を及ぼす存在となる可

能性は大いにある。

 

<人間とAIの相違>

1⃣人間

(法律・慣習・善悪

・道徳・常識)

=倫理

   ↓↓

倫理問題は、大抵の場合

議論や多数決で終了する。

   ↓↓

ひとつの倫理的な判断が

社会に波及する。

 

2⃣AI

AIは、統計的に正しいことが

、正しいものだと判断する。

=AIの判断

↓↓

倫理問題を含む判断でも

開発者のアルゴリズムで

決定する。

↓↓

ひとつの倫理的な判断が

社会に波及する。

 

AIの責任の所在

さらに、大きな課題がある。

 

それは、AIは自らが起こした

問題に対して責任を負えない、

という課題である。

 

仮に、責任を負えたとしても、

影響を及ぼす領域によっては

責任を問えないのである。

 

また、使用者である人間が責任

を負うとしても、AIは、従来の

プログラムのように実行ボタン

を押した後の動作が、明確に

判断できるわけではない。

 

状況に応じて柔軟に判断をする

AIによって起きた問題の責任が、

使用者や開発者、

あるいは、

司法や行政など、

どこにあるのかを、正確に特定

ることは、かなり難しい。

 

それ故、最終的に、誰が責任を

うべきかについて、事前に明

確なルールを定めておく必要が

ある。

 

それが法律、規約、契約、手順

等、どのような形で記載され

るか不明だが、

予め、議論して決めたルール

である点は、同意義である。

 

このようなルール作りのベース

なるのが、

「AIの倫理」

に関する基本的な議論である。

 

<責任の所在>

1⃣有人運転で、電柱に衝突した

場合、責任はユーザーにある。

2⃣無人運転(自動運転)で、電柱

に衝突した場合、車は責任を

取れないので、ユーザーかメー

カーのどちらかに責任がある。

ユーザー:車が電柱の前で止まら

なかったので、故障の

可能性があり、メーカー

に責任がある。

メーカー:車の定期的な検査や

使用頻度による劣化

などが原因の可能性

として考えられるので

ユーザーに責任がある。

結局のところ、責任の所在は不明。

最終は、契約内容に委ねられる。

 

 

AIの判断

AIの思考過程を理解出来ない事が

責任の所在に関する大きな課題で

あったが、仮に思考過程が理解で

きたとしても、思考過程に誤りが

あった場合に、

「どういう方向で修正すべきか」

という問題が生じる。

 

二者択一の問題で考えてみる。

アメリカの哲学者ジュディス・トム

ソンが発案した「トロッコ理論」で

ある。

 

二者択一の問題は、

➀命の恩人である他人を見殺しに

 するか、

➁命の恩人である他人を助けるた

 めに、血の繋がった親族を見殺

 しにするか、

という状況判断に関する問題であ

る。

 

倫理的な思想・立場によって解答

変わる問題で、人間の場合は自

らの思想・信条に基づいて行動し、

自らがその責任を負う。

 

一方、AIの場合は、設定された優

順位に基づいて行動し、その設

定は複製されて社会全体に影響を

及ぼす。

 

つまり、開発者の思想・信条が社

全体の問題に変化する、

ということである。

 

特に、AIが商品として提供される

合は、問題は深刻かつ複雑で

ある。

 

商品である以上、

➀お金を払ったユーザー

➁スポンサー

が優先される設計であり、周囲へ

の影響や被害が軽視される可能性

が大いにある。

 

AI搭載の医療機器では、患者の命

の保護が優先されるため、患者の

激痛や周囲への悪影響の増大が

念されている。

 

<AIの優先順位>

1⃣生成AIで看護師の業務をこな

す場合、モニターの付いた患

者にアラームがなっていたの

で、AIは、アラームを消す処

置をするために症状の改善を

促す薬の投与をする。

命の危険は回避されたが、患者

の激痛への対処が不十分となる。

 

2⃣人間の看護師が業務をこなす

場合、モニターの付いた患者

にアラームがなっていたので、

アラームの原因を確認して、

症状の改善を図るための薬の

投与をする。

同時に患者の苦しみに目を配

りながら、痛みの緩和に繋が

る処置をする。

生成AIは、数十人の看護師の

業務をこなし、患者の命を助

けることを優先に設定される

ため、患者の激痛に気付かな

かった。

患者の命を救うことを優先した

生成AIに投資した病院が優先さ

れる設定になると、激痛に苦し

む患者が増えて、弱者が損をす

る社会に進むことになる。

 

 

AI倫理の方針

ロボットの3原則がSFの中で誕生

したが、現実社会では十分に機能

しない。

 

最近、世界中で討論されている、

「AI利用の倫理上のポイント」

をまとめると、

➀social profit、

➁impartialとfairness、

③social responsibility

④date management

⑤trustとsafety

↓↓

➀利益

➁正しさ

③責任

④データと管理

⑤信頼と安全

がAIの普及に際して約束される

べき事項として挙げられている。

 

人間と違って、AIの倫理方針は

AIの設計・使用時に開発者や使

用者が留意すべきものであり、

AIが勝手に守ってくれるルール

ではない。

 

AIに関わる全ての人間が倫理方

針を頭に入れ、AIの開発や運用

に倫理的な問題がないかを考え

続ける必要がある、

というわけである。

 

深井ITゼミナール

深井ITゼミナール

大阪府堺市で有名な大学共通テストに必修の高校情報ⅠからAIプログラミングやデータ分析など応用に至るまで幅広い年齢層の方まで指導するオンライン授業に特化した予備校

深井ITゼミナール