伊東 乾
実は日本が発信源だった、AIイノベーション 甘利俊一教授が語る「もうちょっとだよなーディープラーニング」 | JBpress (ジェイビープレス)
AIの父、甘利俊一先生
甘利俊一 - Google 検索
今日のAIの原点「ニューラルネット」を理論も実装も日本発のパイオニア的取り組みが支えてきた
今日AIと呼ばれる、人間の脳にモデルを求めた人工知能システムの原点は第2次世界大戦中の1943年、米国のウォーレン・マカロックとウォルター・ピッツによる数理的脳モデルに端を発します。
第2次大戦後の1958年、米国の若き心理学者フランク・ローゼンブラット(1928~71)が提案した「パーセプトロン」が牽引する形で「第1次AIブーム」が沸き起こります。
ここで今日のニューラルネットの原点となる「確率勾配降下法」を提出したのが、当時31歳の甘利俊一先生(1936ー)でした
2017年「人工知能」誌に寄せた原稿「もうちょっとだよなーディープラーニング」。
この甘利先生の先駆的な業績は世界より20年早く、1967年当時の計算機の技術水準では満足な実装ができませんでした。
・・・・
第3次AIブームの大本の口火を切ったのは2006年、上記のヒントンらによる「深層学習」システムの成功でした。
やがて2012年グーグルの「ネコの自動認識」が導火線に火をつけ、爆発的なAIブームが到来します。
甘利先生の見解は極めてシビアです。先ほどのリンクからご紹介してみましょう。
「Google のネコ」という話があるが、あんな茶番劇で満足してはいけない。階層が進むと現れる「標準ネコ」のようなものがどうしてネコの高次の特徴なのか。
とんでもない、あれはむしろ無用に多数の素子を使うことで偶然に現れる、むだの一例ではないのか?
結果がうまくいったのだからよいではないか、理屈で説明する必要はないという考え方もあろうが、理論家は納得しない。
良いものは基本的な原理を捉えているはずであり、説明がついてこそ安心して使えるし、その後の発展もある。
実は、多くの理論家が歯噛みをしながら、しかし勇躍としてこの問題に取り組んでいる・・・。
(甘利俊一「もうちょっとだよなー、ディープラーニング」)
甘利先生は、脳の機能のごく一部に特化したモデルを無駄に多層化しただけで、実際は大量のハードウエアと莫大な電力を消費しつつ、人間の下手な模倣しかできない、現状のAIの真の姿を冷静に捉えられます。
また、そんなものを振り回しても、人間の脳の理解には全く近づかないとも指摘されています。
実際、私たちの脳が「おにぎり1個」を食べて賄える程度のエネルギーで自在に計算可能な課題を、現状のLLM、最も高度な生成AIも、よく模倣することができません。
これに対して、AIは人間の脳とは別物と開き直り、むしろ単純なシステムの階層を増やすだけで、様々な機能が「創発」してくることをポジティヴに捉える「楽天派」の代表がヒントン氏だったはずです。
そのヒントン氏が去る5月1日、現状のAI、とりわけ生成AIのはらむリスクに対して自由に発言できるように、とグーグルを退社した経緯については、すでにこの連載でも幾度か触れました。
重要なポイントは「AIが危険」なのではなく、AIを取り巻く社会経済的な状況が、反倫理的な方向で暴走することに、本質的に英国紳士であるヒントン氏は警鐘を鳴らしている点にあります。
つまり「AI倫理」が問われている。
ことこうした倫理に関して、米国は極めてルーズで、やりっぱなしの開発競争に任せる傾向が強い。
カナダのトロント大学でAI研究を牽引してきたヒントン教授は、開発そのものについては楽天的に、しかし、結果的に開発されるAIの運用については極めて倫理的なスタンスを堅持してきました。
これに対して、甘利先生を筆頭に日本や欧州の知性は「メカニズムが分からなくても、結果が良ければいいじゃないか」という「やりっぱなし」「やったもの勝ち」的な姿勢にも大いに批判的です。
メカニズムを理解したうえで、そのあるべき運用を検討する、高いモラルを堅持している。
ということで、冒頭でリンクした私たちのシンポジウムは、その観点から、日本とEU最前線の問題意識を平易に解説、共有、本当に力となる企業戦略や来るべき「法理」の満たすべき条件などを検討します。