数日前、ユーラシア・グループが世界の十大リスクの6位に科学技術者の興隆を上げたと書いたが、カンレするような記事が今日の産経ビズに載っていた。私は私の高いだしにあるようないわれもない脅威は感じていない。でも悪意のあるAIという表現はなるほどと思った。技術開発は悪意がないものにしなければいけないね。これはモラルとか倫理観。個人個人の育ち方に起因しちゃうだろう。親の責任になりそう。技術者は、ともすれば、自分の取り組む技術のより進化だけを求めてしまうが、車騎全体あるいは世界全体として考えて、その技術がどのような意味を持つかあるいは悪意を持った使い方は常に想定しなくてはいけないだろう。それは創造性というもの。VWのキャンダルなど、そのモラルとか倫理観の欠如、彼らの育ち方に問題があったのでは?。社会的にやってはいけないことっていうのはある。技術に没頭するとそれを忘れがち。だから、自ら律する必要もあるけど、仕組みや組織でそれをチェックするようにしなければいけない。すなわちこの記事で言うようにできるだけ情報開示だ。法を犯したのにトップがプライバシーを盾に証言を拒むなんていうのは、軽蔑するしかない。本人及び、その組織、親、周りの人もだ。
安全なAI開発へ議論開始 悪意防止にできる限り情報開示 (1/4ページ) - SankeiBiz(サンケイビズ)
以下は同感。いまの自動運転などの技術には、あまり創造性が感じられない。いわゆる真面目な人がコツコツと少しづつ進化を積み上げているだけのもの。
安全なAI開発へ議論開始 悪意防止にできる限り情報開示 (1/4ページ) - SankeiBiz(サンケイビズ)
安全なAI開発へ議論開始 悪意防止にできる限り情報開示 (1/4ページ)
2016.1.11 11:12
【囲碁】1月の次の一手問題に挑戦![PR]
2015国際ロボット展で公開された、人間の代理を務める「テレプレゼンス・ロボット」(ブルームバーグ)【拡大】
人工知能(AI)の開発者は、フランケンシュタイン博士のように自分が世に放った科学技術の産物が世界の終末をもたらしかねないことにも気付かない浅はかな人物としてフィクション作品に描かれることが少なくない。しかし実世界では、ロボットとAIの到来が労働者に及ぼす衝撃や、悪意のあるAIが生まれるかもしれないといった疑念に、身もだえするような不安を覚える者が多いようだ。
電子情報開示手続き(eディスカバリー)で得たデータの精査に駆り出される若手弁護士らや、セルフレジがあるスーパーマーケットのレジ担当などを例に挙げ、「今の経済に必要とされる新たな仕事が出てくるのが望ましい。起業家や経営者には、新しい仕事を考案する上で既存の仕事を自動化するときに発揮された独創性が見受けられない」と語った。
以下は同感。いまの自動運転などの技術には、あまり創造性が感じられない。いわゆる真面目な人がコツコツと少しづつ進化を積み上げているだけのもの。
知能を搭載したマシンが及ぼす影響に関する議論をまとめた「Superintelligence:Paths,Dangers,Strategies(仮題=超知能:道筋、危険性そして戦略)」の著者、英オックスフォード大学のニック・ボストロム教授は「食事をお盆に載せて運んでくる給仕ロボットがいる今の世界が最終段階ではないと思っている。最終結果はわれわれになじみのあるものとはかなり違うものになるかもしれない」と話す。
その取り組みの一環として昨年12月11日、米電気自動車メーカー、テスラ・モーターズと宇宙開発企業スペースXの創業者、イーロン・マスク氏をはじめとするテクノロジー業界の先駆者らが非営利研究団体「オープンAI」の創設を発表した。同団体は、できる限り情報を開示しながら、強力なAI技術の開発に専念するものだという。マスク氏は、超知能の出現が不可避である以上、人々がAIがもたらす結果を考えることができるよう、開かれた場所で開発するのが最善だとの考えを示した。