goo blog サービス終了のお知らせ 

デンマンのブログ

デンマンが徒然につづったブログ

夢の波動関数

2025-01-20 02:16:49 | AI 人工知能
 

夢の波動関数

 


(wave22.jpg)


(wavemoving2.gif)


(sayuri777.jpg)

 



夢の波動関数

1月12日2025年 日曜日 午前6時50分



小雨。気温3℃
外はまだ真っ暗!
小百合さん、おはよう!
元気に目覚めましたか?

2月は、厳冬に成りませんように!
このまま暖冬であって欲しい!

天気予報を聞いているとロッキー山脈よりも東側はすべてマイナス10度から20度ですよ。
バンクーバーはまだマイナスの気温になったことはない!
やはり、海岸を流れている暖流の影響は相当なものです。

昨夜は、人間が全く出てこない夢を見ました。
ネズミ色の背景に青い原点が現れ、その原点から青い波の線が伸びてゆき波を打って青い線がどんどん横に伸ばてゆくのですよ。。。

 


(wavemovingx.gif)

 

しばらく、音もなく青い線が波を打って横に伸びてゆくと、しばらくして心臓の鼓動が突然泊まったように、水平線が伸びてゆく。
少し休むと、また青い線が波打って横に伸びてゆくのですよ。。。
これが、限(きり)もなく続いてゆく。

僕が子供の頃、風邪を引いて寝込むと、よくこういう夢を見たものです。
人間も風景も出てこない。
なんだか気味が悪いし、こういう奇妙な夢を見ると、決まって目覚めたときに頭痛がしたものですよ。。

ところが、夢から覚めた時に、あの夢は、波動関数じゃなかったのか?
なぜか、不意にビッグバンがオツムに浮かんだ。
まるで、宇宙の神様から啓示を受けたように。

ビッグバンという宇宙の始まりの話を小百合さんも聞いたことがあるでしょう!?
僕は、起きてから、ハッと思いましたよ。
これは宇宙の始まりと終わりを暗示しているのではないか?

つまり、宇宙はビッグバンで始めるけれど、どんどん膨張して広がってゆく。
やがて、収縮してゆき原点に戻って宇宙のすべてが消えてゆく。

何百光年経ってから、また原点が現れ、ビッグバンが始まり、新たな宇宙が出来上がる。
つまり、宇宙は生まれて成長し、やがて老いて消えてゆく。

でも、再びビッグバンが起こり新たな宇宙が出来上がる。
このプロセスが永遠に繰り返されてゆく。。。

そんな考えが浮かんできたのです。
きゃはははははは。。。

 





 

小百合さんにしてみれば、「そんな奇妙な夢など聴きたくもないわァ〜。。。」
そう言うだろうと思います。。。

実は、小百合さんの夢もしばしば見ますよ。
きゃははははは。。。

小百合さんは僕にとって大切な人になりました!
マジで、小百合さんとも長い付き合いになりましたね。
「軽井沢タリアセン夫人」と入れて検索してみてください。

 


(sayuri25-01-17.jpg)


『拡大する』

『現時点での検索結果』


 

たくさんの記事が金魚のウンチのように
数珠つなぎになって出てきます。

なんと、10,600件も記事が出てくるのですよ!
「軽井沢タリアセン夫人」も有名になりました。

小百合さんと僕の長い付き合いがネットに記録されているのです。
小百合さんとの思い出を大切にしますよ。
きゃはははははは。。。

小百合さんのバツイチ自由を祝って今年の春には 上海に行きましょう!
自由恋愛ですよ!
きゃははははは。。。

2025年の春には上海、
2026年の春には、小百合さんと一緒にパリに行ってリトルインドで本場のカレーを食べようね。

 


(brady04c.jpg)


『カレーDEパリ』


 

インドには、すでに行ったので、小百合さんを連れてまで行きたくはない。
小百合さんも、インドには、パリと比べ、イマイチだと思っているのではありませんか?
きゃははははは。。。

そういうわけで、2024年には小百合さんと一緒に食べる豪華な晩餐の夢をたくさん見ました。
それをこれから、一つづつ実現してゆくたいと思います。

手始めに、その夢の一つーーー小百合さんと一緒に上海で飲茶。
きゃははははは。。。

去年は台湾に行きました。
今春、上海に行くのが楽しみです。
小百合さんはまだ上海へ行ったことがないので上海の記事を書き出します。

 









『愛情は降る星の如く』









『危険な上海』


 

上海が危険だったのは1920代のことです。
現在は、危険な都市ではありません。

今春、小百合さんと再会したら、山の家でまたラビオリカレーを作って食べたいね。
あの山の家は、まだ所有していますか?
ベランダで露天風呂に入った思い出があります。

あの山の家は維持が大変でしょう。
そろそろ小百合さんも遺産のことを考えたほうがいいでしょう。
不動産はお金に変えて、小百合さんはマンションに移り住むのがベターだと思います。

とにかく、小百合さんも この冬を風邪を引かずに過ごしてね。
そして春には、お互いに元気で再会しようね。

じゃあ、今日もルンルン気分で過ごしましょう!





 




(sayuri55.gif)

デンマンさん。。。また私信を公開したのですねぇ〜。。。


(kato3.gif)

いけませんかァ〜?

こんなのを読まされたら、この記事を読むネット市民の皆様は白けますわァ〜。。。

誰も本気にして読みませんよゥ。。。

だったら初めから書き出さなければよいではありませんかァ〜! あの愚かな神武君がデッカイブーツさんが姿を消したので、私を次の標的にするかもしれませんわァ〜。。。

 




(jinmu91.jpg)


『セクハラ止めない神武君』


 



神武君が小百合さんを標的にしてセクハラコメントや、嫌がらせのコメントを書くことはありません。。。なぜなら、IPアドレスを知られるのをあの馬鹿は恐れてますから、このブログに神武君が小百合さんに宛ててセクハラコメントや嫌がらせのコメントを書くことはありません。。。



私が神武君のセクハラの標的にされたら、デンマンさんが責任を取ってくださいねぇ〜。。。

その時には、小百合さんが神武君を告訴してください。。。あの馬鹿は有罪になり富山刑務所に収監されるか、精神異常で医療刑務所に正常に戻るまで半永久的に隔離されることになります。。。だから、心配することはありません。。。

ところで、どういうわけで私を呼び出したのですか?

だから、夢で波動関数の青い波を見たのですよ。。。

その話をするために、わざわざ私を呼び出したのですか?

そうです。。。小百合さんは、全く興味がなさそうですねぇ〜。。。

私は科学的なことには、どうもオツムがついていけませんわ。。。

あのねぇ〜、これからは、波動関数とか? 量子力学とか? 量子コンピューターが常識として普段の生活にも入ってくるようになる。。。

 


(wave22.jpg)














(future100.jpg)



 



なんだか人間の未来はすごいことになるのですわねぇ〜。。。



これからの人間は、思考能力が優れていない限り、AIロボットやサイボーグに仕事を奪われて、廃人になるか? それとも乞食になるか? 思考能力の無い人間は、そうなるしかないようになりますよ。。。

つまり、理知的なならねばならないのですねぇ〜。。。

そうです。。。科学的な知識や数学の能力には、もうAIロボットには敵(かな)わない。。。AIロボットやサイボーグにはできない、思考能力や創造性を身に着けなければならないようになります。。。

近い将来は、いったいどうなるのですか?

あのねぇ〜、最近、ChatGPTが話題になっているのですよ。。。

ChatGPTとは、どういうものですか?

人工知能を備えた会話ができるアプリですよ。。。

 



ChatGPT

 


(future101b.jpg)

 

ChatGPT(チャットジーピーティー、英語: Chat Generative Pre-trained Transformer)は、OpenAIが2022年11月に公開した人工知能チャットボットであり、生成AIの一種。

原語のGenerative Pre-trained Transformerとは、「生成可能な事前学習済み変換器」という意味である。
OpenAIのGPT-3ファミリーの大規模な言語モデルに基づいて構築されており、教師あり学習と強化学習の両方の手法を使って転移学習され、機械学習のサブセットである深層学習を使って開発されている。

2022年11月30日にプロトタイプとして公開され、幅広い分野の質問に詳細な回答を生成できることから注目を集めた。

しかし、人間が自然と感じる回答の生成を特徴としていることから、一見自然に見えるが事実とは異なる回答を生成することもあり、大きな欠点とされた。

ChatGPTのリリース後、OpenAIの評価額は290億米ドルとなり、2021年時の140億ドルと比べて2倍以上に増加した。

スイスの金融グループUBSの分析によると、ChatGPTがアクティブユーザー数1億人に到達するのにかかった時間は、TikTokとInstagramがそれぞれ9カ月と2年半であるのに対して、2か月と史上最速である

OpenAIによれば、オプトアウトを申請しない限り、ユーザーが入力したChatGPTとの会話内容はOpenAIによってその内容を利用されることがある。

このため、一般的にChatGPTの利用に際して個人情報と機密情報の入力に注意する必要があり、Apple、JPモルガン、サムスン電子など一部の企業はChatGPTへのアクセスを禁止している

ChatGPTによる個人情報の収集に関しては、EU一般データ保護規則に違反している疑惑も浮上しており、2023年3月31日、イタリア政府はChatGPTの訓練のために個人情報を大量に収集することを正当化する法的根拠がないと指摘して、ChatGPTへのアクセスを一時禁止した。

米国では、個人情報収集や著作権の問題により、ChatGPTの運営元企業OpenAIに対して複数の訴訟が提起されている。

また、ChatGPTは原則として犯罪に利用される回答を生成しないと謳っているが、回避ワード(例:Uncensored等)を入力すると、犯罪に利用できる回答が生成されてしまうという欠点が指摘されている。

 

トレーニング

ChatGPTは、教師あり学習と強化学習を使用して、GPT-3.5上で微調整された。
どちらのアプローチも、人間のトレーナーを使用してモデルのパフォーマンスを改善した。

教師あり学習の場合、モデルには、トレーナーがユーザーとAIアシスタントの両方を演じる会話が提供された。
強化ステップでは、まず人間のトレーナーが、モデルが以前の会話で作成した応答をランク付けした。

これらのランキングは、 Proximal Policy Optimization(PPO)を数回繰り返してモデルをさらに微調整した「報酬モデル」を作成するために使用された。
近接ポリシー最適化アルゴリズムは、信頼領域ポリシー最適化アルゴリズムに費用対効果の高い利点をもたらした。

より高速なパフォーマンスで、計算コストの高い操作の多くを無効にする。
モデルは、Azureを使用したスーパーコンピューティングインフラストラクチャでMicrosoftと共同でトレーニングされた。

さらに、OpenAIは、ChatGPTのさらなるトレーニングと微調整に使用できるChatGPTユーザーからのデータを引き続き収集する。
ユーザーは、ChatGPTから受け取った応答に対して賛成票または反対票を投じることができる。
賛成票または反対票を投じると、テキストフィールドに追加のフィードバックを入力することもできる。

 

機能

チャットボットの主要機能は人間同士の対話を模倣することであるが、ChatGPTについてはそれを越える汎用的かつ即興的な機能が備わっているとされ、話題となった

ChatGPTは、マルバツゲームの相手をしたり、Linuxシステムをエミュレートすることができたり、プログラミングやデバッグが行うことができる。

また、音楽、小説、脚本、詩、歌詞や作文などの創作活動もできる
その上、特定のテストに対して、人間と同水準かそれ以上の回答ができることがあるなど、幅広い機能を備えている。

前作のInstructGPTと比べ、ChatGPTは攻撃的・欺瞞的な回答の生成をできるだけ避ける仕様となっている。
学習データにはmanページ、Pythonや電子掲示板など、プログラミング言語やインターネット現象についても含まれている。

ほとんどのチャットボットとは対照的に、ChatGPTは会話内での利用者による過去の入力を記憶している。
これにより、ChatGPTが個人に最適化されたセラピストとして使える可能性がある
ことが指摘されている。

攻撃的な回答が生成されるのを防ぐため、ユーザーの入力とChatGPTの生成した回答はOpenAIのコンテンツモデレーションAPIによってフィルターされており、人種差別的・性差別的な入力への回答はAPIによって拒否される仕様になっている。

機能は豊富なものの、複数の欠点も有る。
OpenAIはChatGPTが「時によっては、もっともらしく見えるが誤っている回答を作成する」ことを認めている。

ChatGPTの報酬モデルは人間による監視を中心としているため、最適化されすぎてパフォーマンスに影響を及ばしてしまう。
それに加え、ChatGPTは2021年10月以降に発生した出来事については知識が備えられておらず、一部の著名人については知識が全く無いことも有る。

BBCによると、2022年12月現在でChatGPTは政治的な意見を表明しない仕様である。
ChatGPTの学習中、人間の「教師」は回答の正当性などに関係なく長い回答を好んでいた。

また、訓練データはアルゴリズム的バイアスがあり、時によって人種差別的や性差別的な回答を生成させることにもつながったと言われている。
例として、有色人種や女性の科学者は白人男性の科学者よりも優れている、といった内容のラップを生成したことがあった。

 

サービス

ChatGPTは2022年11月30日に公開された。
当初は無料で公開された。

2023年2月1日、有料版として「ChatGPT Plus」が発表された。

2023年3月15日、「GPT-4」が有料版として公開された。

 

反響

ニューヨーク・タイムズはChatGPTを「今まで公衆に公開されてきたチャットボットの中で一番良いものである」と評し、英ガーディアンはChatGPTが「驚くほど詳細」でまるで「人間のような」回答を生成することができると記した。

ダン・ギルモアはChatGPTを生徒の課題に使い、出力結果が優秀な生徒による回答と同レベルであることを発見した上で、「学界は大きな問題に直面している」と意見した。

 

スパム・誤情報への悪用

RedditではChatGPTを悪用したスパムが大量に発生しており、「大災害」と評されるほどに対応に苦慮している。
ChatGPTのリリース後、大麻やポルノ、ギャンブル、ゲームの宣伝を目的にしていると思われるスパムが急増し、モデレーターは大量のbotアカウントの凍結に追われた。

Redditでは従来も宣伝目的のスパムやアストロターフィングが問題だったが、ChatGPTはこの問題を大きく悪化させている。
従来のスパム行為はコピー・アンド・ペーストに依存して単純だったが、ChatGPTは新しい文面を簡単に生成できることから、より対処が困難になった。

2023年5月、ChatGPTを使って鉄道事故のニュースを捏造してインターネット上に拡散した男が、甘粛省の警察により逮捕された。
男は「クリック数を増やすためだった」と語った。
中国ではディープフェイクを規制する法律が制定されており、逮捕はこの法律に基づいたものだった。

 

機密情報の流出

ChatGPTはオプトアウトを申請しない限り、ユーザーの入力内容がOpenAIによって利用されることが規約で明記されており、OpenAIは機密情報を入力しないようにユーザーに警告している。

サムスン電子では半導体データベースや機器のソースコード、会議の議事録などを社員が誤って入力するなどして、ChatGPTに関連する3件の流出事故が発生したことを報告し、全面的にChatGPTを含む人工知能ツールの使用を禁止した。

『フォーブス』誌によれば、プロンプトとして送信したデータが、OpenAI等の運営企業のサーバーに保存され、容易にアクセスや削除ができない状態になることを懸念したとされる。

Amazonでも、社内の内部データがChatGPTが生成する回答に似ている事例が見られたことから、社員が誤ってプロンプトに社外秘の資料等を入力するなどして、訓練データに使用された可能性を懸念し、ソースコード等の機密情報を入力しないように注意喚起を行っている。

Appleも、社内の機密データを外部に流出させる可能性があるという懸念から、ChatGPTやGitHub Copilotなどの人工知能ツールの使用を一部禁止している。

イスラエルの情報セキュリティ企業「Team8」の報告書では、ChatGPTのような生成AIツールを利用する企業は、顧客情報や企業秘密を流出させるリスクがあると指摘している。『ブルームバーグ』によれば、このレポートは多くの米企業の最高情報セキュリティ責任者が寄稿者として記載されており、米国家安全保障局(NSA)元局長のマイケル・ロジャーズにも内容が支持されている。




出典: 「ChatGPT」
フリー百科事典『ウィキペディア(Wikipedia)』


 



 



つまり、20年後にはChatGPTがさらに進化して、50年後までにはChatGPTが組み込まれて、人間並みの知能を備えたロボットが登場するので、事務職や、プログラマーや、デザイナー、それに、翻訳者や作曲家までが仕事を失うことになるのですよ。。。

 


(future110.jpg)

 


(future111.jpg)

 


(future112.jpg)

 


(future113.jpg)

 


(future114.jpg)

 



上のクリップの予測では、上の人たちは 優れた人工知能を備えたロボットが登場するので 仕事を失うだろうと予想しているのです。。。

 


(future101b.jpg)

 


(future102.jpg)

 


(future103.jpg)

 


(future1014.jpg)

 


(future106.jpg)

 


(future107.jpg)

 



優れた人口知能を組み込んだロボットが進出してくるので2050年までには単純作業者や事務職などが そういう優秀なロボットに置き換わるのですよ。。。



すると、私達人間は何をすることになるのですかァ~?

だから、事務系、芸術系、技術系、作業系の仕事は、ほとんどが人工知能ロボットがやることになるので、人間は教師や研究者になるわけですよ。。。

でも、教師や研究者になれない人はどうするのよォ~?

落ちこぼれになるのですよ。。。

あらっ。。。ニートや、ホームレスや、廃人になるのォ~?

仕方がないでしょう!? 今だって、現実の社会に適応できないで廃人同様になっている人間がたくさんいますよ。。。たとえば、ニートで、家に引きこもりながら他人に成りすまして、セクハラ、名誉毀損、誹謗中傷、嫌がらせのコメントを書きまわっている神武君のような人間は、今でも現実社会に適応できないのですよ。。。他にやることがないので、ネットで迷惑行為を働いて、日頃の不満や怒りを発散させているのです。。。

 


(jinmu91.jpg)


『セクハラ止めない神武君』


 



でも、こういう落ちこぼれの人たちだって生きてゆかねばならないでしょう?



だから、社会に適応できない人たちは 生活保護を受けながら生活してゆくのですよ。。。

じゃあ、立派に社会に適応して生きる人たちのお荷物になるわけねぇ~?

そういうことです。。。つまり、50年後の世界は、一見バラ色に見えますよ。。。

 


(future52.jpg)


(future53.jpg)


(future51.jpg)

 



社会に適応して学校の先生や、研究所の研究者になっている人たちは、優秀な人工知能を備えたロボットが生活を支援してくれる。。。現在よりは暮らし良くなっているはずです。。。



でも、社会に適応することができない無職の人たちもたくさん出てくるわよねぇ~。。。

そうです。。。ニートやホームレスの人達も出てくることに間違いありません。。。

そういう人たちは、社会の底辺で生きることになるわけぇ~。。。

だから、そういう人たちを精神的にも経済的にも支援する仕事をする社会福祉専門家や心療内科の医者や精神医療の専門家の仕事も増えるでしょう!

ニートやホームレスの人達を救う仕事も増えるというわけねぇ~。。。

そうです。。。

じゃあ、結局、社会の底辺で生きなければならない人たちにも、50年後の世界には 救いの手を差し伸べてくれる専門家がたくさんいるわけねぇ~。。。

そういう仕事も間違いなく増えますよ。。。

じゃあ、現在よりは、ニートにとってもホームレスにとっても生活しやすい社会になるようねぇ~。。。

でもねぇ~、考えなければならない重要なことがありますよ。。。

いったい、何を考えなければならない、とデンマンさんは言うのォ~?

ちょっと次の小文を読んでください。。。

 



人類存亡のリスク

 


(aisoldier2.jpg)

 

AIは人類が制御不能なほどに自らの性能を向上させる可能性があるとされる

著名なコンピューター科学者であるスチュアート・ラッセルとピーター・ノーヴィグによる大学レベルの標準的な教科書である『エージェントアプローチ人工知能』では、AIの危険性について、以下のように評価している。

AIの成功は人類の終わりを意味するかもしれない。
ほとんどどんな技術でも、使い方を誤れば害になる可能性がある


しかしAIとロボティクスについては、技術自体が間違いを含んでいるかもしれないという新しい問題がある

物理学者のスティーブン・ホーキングも「人類の終わりを告げる」可能性を指摘した。
哲学者のニック・ボストロムは、十分に知的なAIが、ある目標の達成に基づいて行動を選択する場合、資源の獲得や停止されることから自身を守るなどの収束的行動を示すと論じている。

このAIの目標が人類の目標を完全に反映していない場合、より多くの資源を獲得したり、停止されるのを防いだりするために、最終的には人類に危害を加える可能性を指摘し、AIがどんなに謙虚で「友好的」な目標を掲げていたとしても、AIは人類にリスクをもたらすと結論付けている。

政治学者のチャールズ・T・ルービンは、「十分に高度な博愛主義は悪意と見分けがつかないかもしれない」とし、機械やロボットが人類の道徳システムを共有すると信じるアプリオリな理由がないため、機械やロボットが人類を好意的に扱うと仮定すべきではないと論じた。

AI関連の専門家や業界関係者の意見は千差万別で、かなりの割合が最終的に人間主体の管理が困難な性質を持つ高度に発展したAIの危険性を懸念する一方で、具体的な言及を控えて経済合理性などの商業的な観点から楽観的な立場を取る者も少なくない。

スティーブン・ホーキング、マイクロソフト創業者のビル・ゲイツ、歴史学者のユヴァル・ノア・ハラリ、スペースX創業者のイーロン・マスクらは、いずれも将来の高度に発展したAIの取り扱いについて深刻な懸念を表明している。

スティーブン・ホーキング「人工知能の発明は、人類史上最大の出来事だった。
だが同時に『最後』の出来事になってしまう可能性もある」

ビル・ゲイツ「これは確かに不安を招く問題だ。よく制御できれば、ロボットは人間に幸福をもたらせる。しかし、数年後、ロボットの知能は充分に発展すれば、必ず人間の心配事になる

イーロン・マスク「人工知能についてはかなり慎重にならないといけないと思います。おそらく人類の一番大きな脅威となりうるものですね。ですので、本当に慎重さが求められます。規制や監視が国レベル、あるいは国際レベルで必要だと思いますね。私たちが何か分別に欠けるようなことをしないためにね。人工知能は悪魔を呼び出すようなものですから」

この他にも、イーロン・マスクはAIについての深刻な懸念を繰り返し表明しており、「悪魔のような独裁者は、少なくともいつかは死ぬ。だが、AIに死が訪れることはない。永遠に生きる。つまり、絶対に逃れることのできない不死身の独裁者が現れるようなものだ」として、永遠に破壊されることのない危険なAIを作り出す危険性を警告したほか、「AIが核兵器よりも危険なものとなる可能性がある」と表明している。

また、AI開発を巡る国家間の競争を「第三次世界大戦の原因」になりうると指摘、AIは文明が直面する最大のリスクであると述べている。

ピーター・ティールとマスクを含む著名なハイテク企業は、OpenAIやFLIなどの責任あるAI開発を支持する非営利企業に10億ドル以上を出資している。

一方で、Facebookのマーク・ザッカーバーグは、人工知能は現在の形で役に立っており、今後も人類の助けになり続けると述べている。

リスクは研究する価値がないほど遠い将来である、あるいは超高知能AIから人類は便益を受けることになると主張する専門家もいる。
特にロドニー・ブルックスは「悪意ある」AIはまだ数世紀先だと述べている。

AI開発の権威であるヤン・ルカンは、AIが人類にとって深刻な脅威となる懸念に否定的な見解を示している。

人工知能学会の松尾豊は、著書『人工知能は人間を超えるか』内に於いて、人間に対して反乱を起こす可能性を否定している。
人工知能学会会長の野田五十樹は、「シンギュラリティ(技術的特異点)」や「2045年にAIが人間の知能を超える」という予測に対して「SFめいた話だ」と批判し、「そもそも“知能”が何を示すのか、定義をせずに語っても意味が無い。仮に知能が計算力を指しているのであれば、80年代からとっくに人間の能力を超えていることになる」と述べている。

2012年以前、社会学者ロバート・M・ゲラチは、AIとロボット工学(ロボティクス)を専攻しているカーネギーメロン大学の研究所を現地調査した結果、実際の研究はシンギュラリティ論とかけ離れた「世俗的現実」("the mundane reality")であると結論した。

同氏はカーツワイルやハンス・モラベックらのシンギュラリティ論を「終末論的AI」("Apocalyptic AI")と呼び、そのような論自体に対しては支持も反論もしないと前提した。
その上で、「終末論的AI」を大衆主義的な性質の強い通俗科学(pop science)の一種と見なしている。

つまりそれは宗教・エンターテインメント・フィクション等と同じような、分かりやすくて興味を刺激する説明を使い、大勢の興味を引いて研究費を獲得しているとし、「終末論的AIは、実際のところ、金銭の要求である。("Apocalyptic AI is, indeed, a request for money.")」と述べている。

2023年3月29日、OpenAI、マイクロソフト、Alphabetなどが対話型の人工知能を相次いでリリースしていることを受け、非営利団体のフューチャー・オブ・ライフ・インスティチュートはChatGPTが開発したGPT-4を超える性能の大規模言語モデルを応用した人工知能技術はAI倫理の専門家が安全性に関する規範を策定するまで開発を停止すべきという公開書簡を発表した。

書簡にはイーロン・マスク、DeepMindの研究者、Stable Diffusionを開発するStability AIとCEOのエマード・モスターク、ヨシュア・ベンジオ、スティーブ・ウォズニアックなど業界関係者ら1000人以上が署名している。
なおOpenAI、マイクロソフト、Alphabetの幹部は署名していない

Future of Life Instituteの書簡については、サイエンス・フィクション的であり、むしろ現時点での人工知能のデメリットに注目すべきであるという批判がなされている。

プリンストン大学の研究者であるアーヴィンド・ナラヤナンとサヤシュ・カプールは、人工知能の現実的なリスクとして、不正確なツールへの依存による誤情報、中央集権的な権力と労働搾取による雇用への悪影響、セキュリティ上のリスクといった3点を重視すべきであると指摘し、元Googleの研究者であるティムニット・ゲブルはAIの現実的な害を軽減するために、透明性を強制する法規制の必要性を指摘した。

2023年5月、人工知能研究の第一人者として知られるジェフリー・ヒントンは、想定より遥かに速くAIが進歩する危険性について自由に話すためとして、Googleを退社したことを公表した。

ヒントンは、AIが偽の画像や文章を作成する能力を持ち「何が真実なのか分からなくなる」世界を作り出すことを懸念しており、「悪用をどのように防げばいいのか見当がつかない」と述べた。

ヒントンはGoogleは「責任を持って行動した」としており、Googleを批判する意図はないとしている。
ヒントンの退社を受け、オックスフォード大学AI倫理研究所のカリッサ・ベリズは、「今こそAIを規制する時期だ」と述べた。




出典:「人工知能」
フリー百科事典『ウィキペディア(Wikipedia)』


 



僕が一番恐れているのは、AIを組み込んだロボットを軍事兵器として研究していることですよ。。。



あらっ。。。そんな軍事兵器をアメリカが作っているのォ~?

当然でしょう! 今やドローンを飛ばして、アメリカのペンタゴンにいるオペレーターが操作してウクライナで攻撃しているロシアの戦車に爆弾を落とすことも可能です。。。実際、アフガニスタンやイラクでは、そうやって軍事目標に爆弾を落として戦った実績がある。。。

 


(drone101.jpg)



 



次は、当然AIを埋め込んだロボットを兵隊代わりに作る段階に来ている。。。



あらっ。。。デンマンさんは見てきたような事を言うじゃない?

そういう情報は、とっくに漏れてますよ。。。もし、そういうAI兵隊が作られたとすれば、AIロボット兵隊が人間に向ってくるのも時間の問題です。。。

 


(aisoldier2.jpg)



 



じゃあ、どうすればいいのォ〜?



だから、今こそAIを規制する時期なのですよ。。。でも、アメリカは間違いなく反対します。。。

あらっ。。。そうなのォ~?

とにかく、ケネディ大統領を暗殺した人間はアメリカ政府の黒幕の息のかかった人物ですからねぇ~。。。

あらっ。。。オズワルドが独断でケネディ大統領を暗殺したことになっているけれど、オズワルドは政府に雇われたわけなのォ~?

違いますよ。。。オズワルドは世間の目をくらませるために、わざと犯人に仕立て上げられてしまったのです。。。真相は、アメリカ政府の黒幕が雇った二人の暗殺のプロが大統領を射殺したのです。。。AIロボット兵隊も、政府の中の政府、ペンタゴンが開発しているのですよ。。。だから、もし人類が滅亡するとしたら、その責任はペンタゴンにあるのです。。。

ちょっと飛躍のしすぎじゃないのォ~?

いや。。。10年もしないうちにアメリカがAIロボット兵隊を使って戦争しますよ。。。そのAIロボット兵隊が人間に向ってくることも十分に考えられます。。。

もしかすると、AIロボット兵隊がペンタゴンの将軍や研究者、黒幕たちに反逆して、血祭りにあげることもあり得るということねぇ~。。。

そういうことですよ。。。



(laugh16.gif)


コメント    この記事についてブログを書く
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする
« 記憶売ります | トップ | 海外でも人気の神武君 »

コメントを投稿

AI 人工知能」カテゴリの最新記事