超知能を持ったAIは人の手ではコントロールできない、と科学者らが警告
fabcross for エンジニア編集部 より 21/02/23
“人類が作り上げたAIが人類に反旗を翻す”というのは、SFではよくある話だ。とはいえ、AIの性能は日々進歩しており、すでに特定のタスクを自主的に実行できるAIマシンが存在している。人類よりも優れた知能を持った超知能AIが誕生したら、ガンを治療し、自然災害を防ぐかもしれない。それとも、人類を破滅させ、地球を乗っ取るという道を選ぶのだろうか?
独マックスプランク研究所の科学者らは、超知能AIが人類にとって脅威とならないような制御方法を理論的に検証し、ある答えを導き出した。それは、「超知能AIを制御することは基本的にできない」というものだ。研究結果は、2021年1月5日付の『Artificial Intelligence Research』に掲載されている。
研究チームは、まず、超知能AIをインターネットなどから切り離して、外部との接触を断つことを考えた。しかし、それではAIの能力が著しく低下し、人類が本来解決したい問題に対処できなくなる。次に、AIの振る舞いをシミュレーションし、人々に害が及ぶようであれば停止できる「封じ込めアルゴリズム」を検討した。しかし、現在の計算パラダイムでは「アルゴリズムが脅威を解析中なのか、有害なAIを封じ込めたのか、我々は判断できない」とした。
つまり、単一のアルゴリズムでAIの脅威を判断できないと研究チームは結論付けた。さらに、超知能AIと同様、超知能マシンが誕生していたとしても、我々が気づかない可能性があるとも指摘している。