『自由の哲学』を読む ~日々の暮らしから~

日々の「?」から始めて一歩ずつ
自分で見て考えて、行動していきたい。
私の自由が人の自由にもつながりますように。

AIの原理に関する議論と「アシロマの原則」

2019年12月17日 | 『AI 分岐点に立つ人類』


本からどんどん広がって行ってしまいますが、
AIの本を読んでいると、よけいに人間について考えさせられます。
「人って何ですか?」という問いが
酔狂な人の脳内遊戯ではなくなってしまいました。

人の価値観、何を優先するのかなど、
0か1の世界で定義することが求められています。
でも、そんなことできる?

勤勉なことはマルだけれど、省力化することもマルで、
ハンドメイドはキレイにできない可能性が高い(バツ)だけど
楽しいからマル。
でも、同じハンドメイドでも
幼稚園バッグの手作りを強要されるはイヤで…。

人の価値観は全員違うし、
自分の一生を通しても変わって行きます。
だって、人は成長していくから。

そんな大きなことを言わなくても、
その時の忙しさや自分の虫の居所によって
優先順位はコロコロ変わります。
もちろん、あんまり揺れないようにありたいと思うけれど。

そんな不確かなもの、人の判断基準や優先順位を
固定ルールにしてAIに教えるなんて、至難の業。

つまり、人間の価値観をAIに教えることができないのに
とんでもない力を持ったAIが出来上がって、
近い将来、それを人類がコントロールできなくなる日が来る
AIがその気になったら、地球も人類もひとたまりもない
…というリスクがあるんですね。

「人間の価値観や優先順位を教える」という課題に対して、
専門家が、そのリスクをどう回避しようとしているのか、
『AI 分岐点に立つ人類』で触れてあった
専門家の会議のリンク先を調べてみました。

2017年のFuture of Life institute(日本語)という会議で、
約3500名(AI・ロボット工学専門家1197名)が署名した
AIを開発する際の23の原則(アシロマの法則)が提唱された会議です。

そのサイトの中をウロウロしていて気になったのが
Can We Properly Prepare for the Risks of Superintelligent AI?
(人より賢いAIのリスクに対応できるんかいな?)
という記事です。

ココ(英語。翻訳ソフトででもどうぞ)

コーネル大学のバート・セルマン教授は
「AIが人類の存在を脅かすリスク要因になる可能性は
ゼロではないときっぱり言える」と言い、
ルイビル大学のローマ准教授は、
「人類の実存を脅かすリスクは、ゼロ以外はダメだ。
どれだけ小さくても非常に大きなインパクトだ(だって人類が滅ぶんだもの)。
人類の絶滅を避けることほど重要なことはない」と言う。

そんなことになったらかなわないから、
会議に集まった専門家は、どーにかせねばと持てる叡智を持ち寄って、
それでも「完全に大丈夫だといえる対応策がわからない」、
と言う結論になってしまったようです。

人類の実存を脅かすリスクが0.000001%であっても、
「だから安全」とか言う話では絶対にない。
でも技術の進化は止められない。ああ。

そこでむなしくなって放置してしまっては、
自由の哲学を読だ甲斐がない。
いや、別に読んでなくてもいいんですけど。

知らないことには対処できないけど、
知っていれば、その分対処しやすくなります。
専門知識がない自分にできることは何かな、って
考えることもできます。

それは、別に大きな声で何かを主張しなくても
「私はもうこのくらいで“より便利に、より快適に”って
いつまでも追及しなくても結構楽しく暮らせてるし、
普通に本を読んだり手足を使いながら暮してたいな」
っていう態度で生きていくことかもしれない。

はたまた、
AIに関連するページや可能な人は論文なんかを読んで
ビックリして、それを人に話すことかもしれません。

何にしろ、
これからも人が人として大切にされて、
人間らしく生きていけるように、
技術の進化と両輪で、人の内面も進化していけるよう、
そっち方面を意識していきたいと思っています。


▼この本のカテゴリを立てたので、
興味のある方は右枠プロフィール下の「カテゴリー」からどうぞ。


ちなみに、
その会議で提唱された他の原則を以下に貼っておきます。
23項目あるので、興味のある方はどうぞ。 
結構「そんなこともする必要があるのか~。
エゴだらけの人類にできるかなぁ…」ということ満載です。

■アシロマの原則
研究課題
1) 研究目標:研究の目標となる人工知能は、無秩序な知能ではなく、有益な知能とすべきである。

2) 研究資金:コンピュータサイエンスだけでなく、経済、法律、倫理、および社会学における困難な問題を孕む有益な人工知能研究にも投資すべきである。そこにおける課題として、以下のようなものがある。

将来の人工知能システムに高度なロバスト性をもたせることで、不具合を起こしたりハッキングされたりせずに、私たちの望むことを行えるようにする方法。
人的資源および人々の目的を維持しながら、様々な自動化によって私たちをより繁栄させるための方法。
人工知能に関わるリスクを公平に管理する法制度を、その技術進展に遅れることなく効果的に更新する方法。
人工知能自身が持つべき価値観や、人工知能が占めるべき法的および倫理的な地位についての研究。
3) 科学と政策の連携:人工知能研究者と政策立案者の間では、建設的かつ健全な交流がなされるべきである。

4) 研究文化:人工知能の研究者と開発者の間では、協力、信頼、透明性の文化を育むべきである。

5) 競争の回避:安全基準が軽視されないように、人工知能システムを開発するチーム同士は積極的に協力するべきである。

倫理と価値
6) 安全性:人工知能システムは、運用寿命を通じて安全かつロバストであるべきで、適用可能かつ現実的な範囲で検証されるべきである。

7) 障害の透明性:人工知能システムが何らかの被害を生じさせた場合に、その理由を確認できるべきである。

8) 司法の透明性:司法の場においては、意思決定における自律システムのいかなる関与についても、権限を持つ人間によって監査を可能としうる十分な説明を提供すべきである。

9) 責任:高度な人工知能システムの設計者および構築者は、その利用、悪用、結果がもたらす道徳的影響に責任を負いかつ、そうした影響の形成に関わるステークホルダーである。

10) 価値観の調和:高度な自律的人工知能システムは、その目的と振る舞いが確実に人間の価値観と調和するよう設計されるべきである。

11) 人間の価値観:人工知能システムは、人間の尊厳、権利、自由、そして文化的多様性に適合するように設計され、運用されるべきである。

12) 個人のプライバシー: 人々は、人工知能システムが個人のデータ分析し利用して生み出したデータに対し、自らアクセスし、管理し、制御する権利を持つべきである。

13) 自由とプライバシー:個人のデータに対する人工知能の適用を通じて、個人が本来持つまたは持つはずの自由を不合理に侵害してはならない。

14) 利益の共有:人工知能技術は、できる限り多くの人々に利益をもたらし、また力を与えるべきである。

15) 繁栄の共有:人工知能によって作り出される経済的繁栄は、広く共有され、人類すべての利益となるべきである。

16) 人間による制御:人間が実現しようとする目的の達成を人工知能システムに任せようとする場合、その方法と、それ以前に判断を委ねるか否かについての判断を人間が行うべきである。

17) 非破壊:高度な人工知能システムがもたらす制御の力は、既存の健全な社会の基盤となっている社会的および市民的プロセスを尊重した形での改善に資するべきであり、既存のプロセスを覆すものであってはならない。

18) 人工知能軍拡競争:自律型致死兵器の軍拡競争は避けるべきである。

長期的な課題
19) 能力に対する警戒: コンセンサスが存在しない以上、将来の人工知能が持ちうる能力の上限について強い仮定をおくことは避けるべきである。

20) 重要性:高度な人工知能は、地球上の生命の歴史に重大な変化をもたらす可能性があるため、相応の配慮や資源によって計画され、管理されるべきである。

21) リスク: 人工知能システムによって人類を壊滅もしくは絶滅させうるリスクに対しては、夫々の影響の程度に応じたリスク緩和の努力を計画的に行う必要がある。

22) 再帰的に自己改善する人工知能:再帰的に自己改善もしくは自己複製を行える人工知能システムは、進歩や増殖が急進しうるため、安全管理を厳格化すべきである。

23) 公益:広く共有される倫理的理想のため、および、特定の組織ではなく全人類の利益のために超知能は開発されるべきである。


最新の画像もっと見る

コメントを投稿