AIに「人類絶滅リスク」 ChatGPT開発トップら共同声明(日経 2023年5月31日)
将棋AIが将棋をしないのようなことは現時点では考えにくいと思います。マッドな国家が人類を滅ぼすAIのようなものをつくらない限り大丈夫じゃないでしょうか。また人類を支配するAIが出来たとして、人間は従わないことが出来ます。電源を落とせばいいですよね。
仮に人類を支配する滅ぼすAIが出来たとして、どうするか予想がつきます。核を使ったり、インフラを止めたりするでしょうね。逆に言えば、核やインフラをコントロールする「権利」を与えなければいいわけです。コンピュータが勝手に指示を出したところで普通は無視できますよね。
つまり通常のテロ対策の延長線上にAIの人類絶滅リスクはあると思います。ただAIで核開発やインフラ破壊兵器開発が捗ったら、AIではなく、マッドな独裁者による破滅的な事態は起こり得るかもしれません。AIに核開発させる指示を出すのような犯罪利用を真剣に対策するべきではないでしょうか。
将棋AIが将棋をしないのようなことは現時点では考えにくいと思います。マッドな国家が人類を滅ぼすAIのようなものをつくらない限り大丈夫じゃないでしょうか。また人類を支配するAIが出来たとして、人間は従わないことが出来ます。電源を落とせばいいですよね。
仮に人類を支配する滅ぼすAIが出来たとして、どうするか予想がつきます。核を使ったり、インフラを止めたりするでしょうね。逆に言えば、核やインフラをコントロールする「権利」を与えなければいいわけです。コンピュータが勝手に指示を出したところで普通は無視できますよね。
つまり通常のテロ対策の延長線上にAIの人類絶滅リスクはあると思います。ただAIで核開発やインフラ破壊兵器開発が捗ったら、AIではなく、マッドな独裁者による破滅的な事態は起こり得るかもしれません。AIに核開発させる指示を出すのような犯罪利用を真剣に対策するべきではないでしょうか。
仮にChatGPTが出力したデータだと明示させることが出来たとしても、文章をコピペすることで誤魔化すことが出来そうではあります。ですから、人間が嘘をつくこともある訳ですし、出力・利用した人間が責任を持てばいいという結論になろうかと思います。
機械が嘘をつくのは困りものですが、その内嘘をつかない優れたAIが出てくれば、嘘をつくAIは使われなくなっていくのではないでしょうか。嘘をつく確率次第では、利用者が嘘を見抜くことで、嘘をつくAIを利用する形も有り得るのかもしれませんが。