観測にまつわる問題

政治ブログです。「保険」「相続」「国民年金」「AIロボット」「運輸エンタメ長時間労働」「GX」を考察予定。

AIによる人類滅亡リスクについての考え方

2023-05-31 19:42:45 | デジタル・AI
AIに「人類絶滅リスク」 ChatGPT開発トップら共同声明(日経 2023年5月31日)

将棋AIが将棋をしないのようなことは現時点では考えにくいと思います。マッドな国家が人類を滅ぼすAIのようなものをつくらない限り大丈夫じゃないでしょうか。また人類を支配するAIが出来たとして、人間は従わないことが出来ます。電源を落とせばいいですよね。

仮に人類を支配する滅ぼすAIが出来たとして、どうするか予想がつきます。核を使ったり、インフラを止めたりするでしょうね。逆に言えば、核やインフラをコントロールする「権利」を与えなければいいわけです。コンピュータが勝手に指示を出したところで普通は無視できますよね。

つまり通常のテロ対策の延長線上にAIの人類絶滅リスクはあると思います。ただAIで核開発やインフラ破壊兵器開発が捗ったら、AIではなく、マッドな独裁者による破滅的な事態は起こり得るかもしれません。AIに核開発させる指示を出すのような犯罪利用を真剣に対策するべきではないでしょうか。

最新の画像もっと見る

1 コメント

コメント日が  古い順  |   新しい順
嘘をつくAIについての考え方 (管理人)
2023-05-31 20:16:47
ChatGPTで資料作成、実在しない判例引用 米国の弁護士(https://www.nikkei.com/article/DGXZQOGN30E450Q3A530C2000000/ 日経 2023年5月31日)

仮にChatGPTが出力したデータだと明示させることが出来たとしても、文章をコピペすることで誤魔化すことが出来そうではあります。ですから、人間が嘘をつくこともある訳ですし、出力・利用した人間が責任を持てばいいという結論になろうかと思います。

機械が嘘をつくのは困りものですが、その内嘘をつかない優れたAIが出てくれば、嘘をつくAIは使われなくなっていくのではないでしょうか。嘘をつく確率次第では、利用者が嘘を見抜くことで、嘘をつくAIを利用する形も有り得るのかもしれませんが。
返信する

コメントを投稿