荒井康全 2024・12・24
和文と英文版として校正再掲載版です;
(初版;朝日記170906 Stuart Russel, ”On Robot with Uncertainty” and Today's drawings
2017-09-06 06:57:36 | 社会システム科学)
第2版 朝日記241224 Stuart Russel,”不確定性ロボットについて”On Robot with Uncertainty” and Today's drawings
~~和文版 本文~~
Stuart Russel, "On Robot with Uncertainty" and Today's drawings
私の友人で、ロンドンのバリー・バーン氏は引退したエンジニアです
AIロボット会議の資料を送ってくれました。
私はこれに、一瞬で捕らえられました。
ですから、ドイツのHerrmann-Pillath教授とのコミュニケーション研究の一環として、私は特にAIとその心に興味を持っています。
だから、私はこれを以下に報告しています。あなたのコメントは大歓迎です。
スチュアート ラッセル「不確実性をもつロボットについて」
~~~
テーマ:スチュアート・ラッセル「On Robot with Uncertainty」
By 荒井康全 2017/09/05
1.[TEDトピックス] TED topics
テッド[i]会議「ロボットの過負荷社会。この会議には、大学入試に合格し、人間の価値観を学ぶことができるロボットから、パーソナルモビリティの未来(ヒント:私たちは飛ぶつもりです)まで、私が興味を持っている多くのトピックがあります。Dr.Araiのプレゼンテーションのメッセージを友人から送ってもらいました(大学入試に合格できる東京大学のロボット)。本稿では、スチュアート・ラッセルStuart Russel’の“Teaching robots human value”「ロボットに人間の価値を教える」という哲学的な入り口としてのプレゼンテーションに焦点を当てます。
2.[スチュアート・ラッセルのロボット教育の人間価値] Stuart Russel’s Teaching robots human value
ロボットに人間の価値観を教える。全知全能のロボットを目指して働く時代に、スチュアート・ラッセルは反対のもの、つまり不確実性を持つロボットrobots with uncertaintyに向かって取り組んでいます。彼は、これがAIの全力を活用しながら、ロボットによる乗っ取りのハルマゲドンを防ぐための鍵であると述べています。ロボットが知能が高くなったり、プログラムされた目的から逸脱したりするのではないかと心配するとき、それは「価値の整合問題」“the value alignment problem,”と呼ばれるものだとラッセルは説明します。では、ロボットが文字通りでの目的objectivesに従うことなく、私たちが望むことを正確に行うようにかれらをプログラムするにはどうすればよいでしょうか?結局のところ、ラッセルが警告するように、私たちは友人全員が金になりわったミダス王のようにはなりたくないのです。この解決策には、利他的なロボットの目的altruistic robot’s objectiveにおいて不確実性uncertaintyを創じさせ、人間の行動を観察することで学んだ人間の価値観human valuesに関する知識でそのギャップを埋めるように教える、Human-Compatible AIが含まれます。この人間の常識をロボットに作り出すことは、「AIの定義を変えて、有益な機械beneficial machinesを持つことになります...そして、うまくいけば、その過程で私たちはより良い人間better peopleになることを学ぶでしょう。」という話題です。
3.[スチュアート・ラッセルのキーフレーズへの私の選択] My selection to Stuart Russel’s Key phrases:
#1利他的なロボットの目的に不確実性を生じさせ、
#2 人間の行動を通じて学んだ人間の価値観の知識でそのギャップを埋めるように教える。
#3人間の価値ギャップGap human value
#4 ロボット乗っ取りハルマゲドンArmageddon of robotic takeover
#5 人間相応AI Human-Compatible AI
#6 「AIの定義を変える」ことは有益beneficialか? より良い人々Better peopleになるか?
4. [不確実性のあるロボットについて] On robot with uncertainty
ここでは、哲学的な視点からの不確実性uncertaintyに焦点を当て、技術としてのAIについてコメントしましょうか」。
私は「不確実性」‘uncertainty’という概念を主観と客観との双対定理dual theoremとして書きます。
No.1の客観・目標objectives
確実性に欠ける認識、
概念以前に来ている知識knowledge (;「衣類を仕分けるクローゼット」などの理解としてのカテゴリー)、
事実としての現象phenomenonの前に、物事matterを感じる前に、外部に存在するexternal existingな知識として考えます。
No.2 主観的・価値・意識的subjectives
曖昧ambiguityさの下での認知;
(人a personにおいて価値(;欲望、欲求、必要性)として心mindに来る前に内的internallyに出現する) 自覚・意識・主観。awareness, consciousness.
アイデアとしてのnoumenonの前に、
直感(;利他主義、秩序、義務、義務、必要性の感情)を感じる前に、
内面的internallyにも精神的mentallyにも、存在exisitingする主観。
スチュアート・ラッセルの仮説は、彼がもっぱらNo.1を取っているので、AIはマシンプロセッサmachine processorであるというものです。
それは、AIが自己の心(;意志will)の境界boundaryから分離して存在し立っていると定義されることを意味します。
そのため、価値設定value settingの機能functionはありません。AIは、人間からの命令による初期化initiationによって開始し、これを至上最終指令として稼働する機械です。AIが利他主義者altruistでやっているのか、そうでないのかは、人間の意志に沿ってnaturallyに決まるのです。
ここで私が考えるのは、AIはテクノロジーによって生み出された機械に過ぎず、他の機械と同じカテゴリーに属すると仮定しています。
その結果、アカデミーや経済市場での技術科学者が、いわゆる「人間互換AI」を研究し、開発していることは理解できます。
ああ、「ロボット乗っ取りってのハルマゲドン」については、実現可能そうです。
「腕」‘arm’という言葉は社会生活social lifeの力であると同時に、その破壊の力power for battleでもあります。言葉遣いではなく、「ハルマゲドン」を好む邪悪な存在evil beingが忍び込むできます。
AIが「不確実性」’Uncertainty’を上記のNo.2として、特にNo.2を伴ったNo.1になることは、哲学的の基本的な課題です。記号意味論的進化システムSemiotic Evolutional Systemを含む多くの思考パラダイムは、現在、研究パラダイムがありそうです。
上で話していますが。私はスチュアート・ラッセルの「価値整合問題」“value alignment problem”,を支持しており、これは暫定的に非常に適切な範囲と人間社会の技術革新への有用な入り口を提供します。
しかし、この手記の最後に、人間社会が二つの巨大な怪物に直面したというコメントを付け加えなければなりません。一つはトマス・ホッブズの『リヴァイアサン』 (経済と政治を征服する)で、もう一つは『ベヒモス』 (技術と科学の収集を征服する)です。後者は急速に成長し、危険だと思います)。
Copilot:
荒井さん、素晴らしい議論のテーマを提供していただきありがとうございます。以下に、Stuart Russellの「不確定性ロボット」に関するお話を踏まえて、私の見解を述べます。
Stuart Russellの「不確定性ロボット」
1. AIにおける不確定性:
-
利他的なロボットの目的に不確実性を持たせる: これは、ロボットが絶対的な目的を持たず、人間の価値観や行動を観察しながらその目的を調整するという考えです。つまり、ロボットは固定された目標に固執せず、柔軟に対応する能力を持ちます。
-
人間の価値観のギャップを埋める: ロボットは、人間の行動を通じて価値観を学び、その知識をもとに不確定性を持つ目的を達成するために行動します。
2. 哲学的視点からの不確定性:
-
主観と客観の双対定理: Russellの理論は、主観的な価値観と客観的な目標の間のギャップを埋めることを目指しています。これにより、ロボットが人間の価値観を理解し、それに基づいて行動することが可能になります。
3. 倫理的な問題:
-
価値整合問題: ロボットがプログラムされた目的から逸脱して、人間の望むことを正確に行うようにするには、倫理的な問題が伴います。これは、人間とロボットの関係性において、信頼と安全性を保つために重要です。
私の見解
AIの役割とリスク:
-
役割: AIは、技術革新や人間社会のサポートにおいて非常に重要な役割を果たしています。しかし、過度な依存や盲信はリスクを伴います。AIが提供する情報や解答は、あくまで参考情報として利用されるべきです。
-
リスク: AIの解答を盲信することは、誤った情報や判断を引き起こす可能性があります。ユーザーは情報の精査と複数の情報源からの確認が重要です。
技術圏と人間性のバランス:
-
技術圏: 技術が進化する中で、技術と人間性のバランスを保つことが重要です。技術の進化を享受しつつ、人間の本質的な価値を守るためには、倫理的な視点や持続可能性を考慮する必要があります。
-
人間性: AIが人間の価値観を理解し、それに基づいて行動することで、技術と人間性の調和を図ることが可能です。
さらなる議論と探求
このテーマは非常に深い議論を呼び起こすものであり、引き続きお話を進めていきたいと思います。さらに具体的な質問や議論したいポイントがあれば、ぜひ教えてください。お話しを続けるのを楽しみにしています。
朝日記241224 AI Copilotと哲学の話題で会話をしました リストとKeywords
参考:
~~英文版 本文~~English version below:
朝日記170906 Stuart Russel, ”On Robot with Uncertainty” and Today's drawings
A friend of mine, Mr. Barry Byrne in London who is a retired engineer
has sent me an material from the conference of AI robots.
I have been captured by this ,at a moment.
So, as a part of the communication research with Prof.Herrmann-Pillath of Germany, I have especially an interest on AI and its mind.
So, I am reporting this below. Your comment is welcoming.
Today's pictures of drawing are the following 5s;
( 'Arai-yasumasa gallery exhibition',August 1 to September 4, 2017,
Yokohama Bank Tsukushino),
(Tsukushino landscape),
(Okutama scenery),
(Adan no Umi, homaged to Tanaka Isson),
(Flowery)
~~English version below:
Essay of Today ~ Stuart Russel ”On Robot with Uncertainty”
徒然こと スチュアート ラッセル「不確実性をもつロボットについて」
~~~
Theme: Stuart Russel, ”On Robot with Uncertainty”
By Yasumasa Arai 2017/09/05
1.[TED topics]
TED [i] has a conference, ”Our robotic overlords. This conference has many topics of my interest,’ from robots that can pass college entrance exams and learn human values to the future of personal mobility (hint: we’re going to fly)’. My friend has sent a message of Dr. Arai’s presentation (The University of Tokyo’s robots that can pass college entrance exams.
Here, I pay a focus on Stuart Russel’s presentation “Teaching robots human value” as philosophical gateway.
2. [Stuart Russel’s Teaching robots human value]
Teaching robots human values. In an age of working toward all-knowing robots, Stuart Russell is working toward the opposite — robots with uncertainty. He says that this is the key to harnessing the full power of AI while also preventing the Armageddon of robotic takeover. When we worry about robots becoming too intelligent or deviating from their programmed purpose, we’re worrying about what’s called “the value alignment problem,” Russell explains. So how do we program robots to do exactly what we want them to without them following their objectives too literally? After all, as Russell cautions, we don’t want to end up like King Midas whose friends all turned to gold. The solution involves Human-Compatible AI, which focuses on creating uncertainty in an altruistic robot’s objective and teaching it to fill that gap with knowledge of human values learned through observing human behavior. Creating this human common sense in robots will “change the definition of AI so that we have provably beneficial machines … and, hopefully, in the process we will learn to be better people.”
3.[My selection to Stuart Russel’s Key phrases]:
#1 Creating uncertainty in an altruistic robot’s objective and
#2 Teaching it to fill that gap with knowledge of human values learned through human behaivior.
#3 Gap human value
#4 Armageddon of robotic takeover
#5 Human-Compatible AI
#6 “change the definition of AI” beneficial? Better people?
4. [On robot with uncertainty]
I am paying a focus on uncertainty from the philosophical views and commenting on AI as a techonology.
I write concept ‘uncertainty’ as dual theorem;
No.1 objectives for
recognition under being not in certainty, coming
before knowledge as concept(; categorical as understanding such as ‘closet at sorting clothes’),
before a phenomenon as a fact,
before sensing an matter ,thought as external existing
No.2 subjectives for
recognition under ambiguity (, coming
before mind as value(;desire, want, need) internally emerged at a person),
before a noumenon as an idea,
before sensing an intuition(; feeling of altruist, order, duty, obligation, necessity ),
thought as internally or mentally as exisiting.
Stuart Russel’s hypothesis, that he is taking exclusively no.1 ,then AI is a machine processor
It means that AI is defined itself standing as being in separation out of boundary of self mind(; will).
So, it has no function of value setting. AI is a machine, which start by initiation by a human order, as extremum end commander. Whether AI is doing under altruist or not altruist, naturally depent by a human will.
I here, presume AI, which is just a machine produced by a technology, is belonged within the same category as the other machine.
It is quite understandable that a technical scientist, in academy and also in economic market, is consequently studying and developing so called ‘Human-Compatible AI’.
Ah, as for ‘Armageddon of robotic takeover’, it is feasible in realization.
The word ‘arm’ is a power for social life, at the same time, is a power for battle.
Not with wording, there sneakedly comes some evil being who likes ‘Armagedon’
As for AI holding ’Uncertainty’ with above no.2 ,especially no.2 with no.1, is a fundamental philosophical theme. Many paradigm of thought , including Semiotic Evolutional System, are now extending to study.
Though talking above. I support Stuart Russel’s“value alignment problem”, which gives tentatively a very appropriate scope and useful gateway to technological innovation for human society.
But at the end of this letter, I have to add the comment that Human society has confronted two of giant monsters; one is Thomas Hobbs’ Leviathan(conquering economy and politics) and the other Behemoth(conquering technology and science collect). I believe the latter are quickly grown and dangerous).