Googleの開発者会議、Google I/O 2017が5月に開催された。相変わらずGoogleは、AI技術のトップリーダーとして、「AIファースト」を掲げて突っ走っている。検索はもちろん、地図、ビデオチャット、メール、写真アルバムなど、あらゆる製品にAI・Deep Learningの利用を始めている。
私がこのサイトを立ち上げたのは2016年6月なので、ちょうど1年前だ。その頃はDeep Learningどころか、機械学習という言葉でさえ世間に通じなかった。Googleは2015年頃からAIエンジニアをかき集めだし、2016年3月には「AlphaGo」で世界を驚かせていた。日本ではその頃Deep Learningはまだまだ研究者のものでしかなく、企業はこの技術の重要性を認識すらしていなかった。
あれからわずか1年で、GoogleはDeep Learningの本格的な利用を始めている。日本は人材の面でも問題が多いが、研究者でさえDeep Learningが必要とする莫大な計算機リソースを持っていない。それでも今年になって、政府主導の元で60億円を投じ、130ペタFLOPSのAI専用の巨大インフラを2018年度に構築しようとしている。日本のスーパーコンピュータ「京」は10ペタFLOPSなので、この130ペタFLOPSという数値はとんでもない値にも思えるが、浮動小数点演算の測定方法が異なるはずなので、単純には比較できないのだが。
ところがこのGoogle I/Oで発表したCloud TPUは、180テラFLOPSだという。それどころかGoogle Compute Engineを通して誰でも活用することができ、しかも研究者たちは無料でCloud TPUが利用できるのだから、とんでもない話だ。GoogleのAIにかける意気込みは、日本政府の思惑など完全に吹き飛ばしてしまっている。
基礎研究の分野でも、想像以上に加速している。Google.aiと言う新しい組織を立ち上げているようだが、ここでAutoMLという取り組みがなされているという。このAutoMLとは、現在ネットワークが何百層にもなり、非常に時間がかかるようになってきたニューラルネットワークの設計を、ニューラルネットワーク自体にさせようという研究だ。詳細は不明だが、Cloud TPU上で可能性のありそうなニューラルネットワークを複数準備し、そこからニューラルネットワークによる学習プロセスを回すことで、最適なニューラルネットワークを見つけていくという考え方のようだ。言わば、AIがAI自体を設計するのだ。
機械学習の世界には、アルゴリズムを自動選択してくれるDataRobotという製品が1年前から実用化されている。これは、データサイエンティストでなくても一般ユーザーが簡単に機械学習を利用できるように、データ投入さえすればアルゴリズム選択とチューニングまで自動的に決めてくれるソフトウェアだ。実際に機械学習を利用している人ならわかるはずだが、この最も面倒で時間のかかる工程を、自動化してくれるので実用的な製品なのだ。もっとも選択できる機械学習のアルゴリズムは決まっているので、新規のアルゴリズムを自動生成するに近いAutoMLと比較してはいけないのかもしれないが、発想は同じだろう。
まあとにかく、AI研究者たちが長い時間をかけてコツコツとアルゴリズムを研究してきた時代は、過ぎ去ってしまったようだ。世界のトップレベルの研究が、すぐに無料で公開されてしまうのでは、その研究成果を追いかけるだけで現場は精いっぱいだろう。専門の研究者がやっと追従できる世界なのだから、一般ユーザーは既に理解できなくなってきている。ましてや、AIがAIの設計を始めたら、AI専門家まで追従できなくなるSFのような世界になってしまいそうだ。
私がこのサイトを立ち上げたのは2016年6月なので、ちょうど1年前だ。その頃はDeep Learningどころか、機械学習という言葉でさえ世間に通じなかった。Googleは2015年頃からAIエンジニアをかき集めだし、2016年3月には「AlphaGo」で世界を驚かせていた。日本ではその頃Deep Learningはまだまだ研究者のものでしかなく、企業はこの技術の重要性を認識すらしていなかった。
あれからわずか1年で、GoogleはDeep Learningの本格的な利用を始めている。日本は人材の面でも問題が多いが、研究者でさえDeep Learningが必要とする莫大な計算機リソースを持っていない。それでも今年になって、政府主導の元で60億円を投じ、130ペタFLOPSのAI専用の巨大インフラを2018年度に構築しようとしている。日本のスーパーコンピュータ「京」は10ペタFLOPSなので、この130ペタFLOPSという数値はとんでもない値にも思えるが、浮動小数点演算の測定方法が異なるはずなので、単純には比較できないのだが。
ところがこのGoogle I/Oで発表したCloud TPUは、180テラFLOPSだという。それどころかGoogle Compute Engineを通して誰でも活用することができ、しかも研究者たちは無料でCloud TPUが利用できるのだから、とんでもない話だ。GoogleのAIにかける意気込みは、日本政府の思惑など完全に吹き飛ばしてしまっている。
基礎研究の分野でも、想像以上に加速している。Google.aiと言う新しい組織を立ち上げているようだが、ここでAutoMLという取り組みがなされているという。このAutoMLとは、現在ネットワークが何百層にもなり、非常に時間がかかるようになってきたニューラルネットワークの設計を、ニューラルネットワーク自体にさせようという研究だ。詳細は不明だが、Cloud TPU上で可能性のありそうなニューラルネットワークを複数準備し、そこからニューラルネットワークによる学習プロセスを回すことで、最適なニューラルネットワークを見つけていくという考え方のようだ。言わば、AIがAI自体を設計するのだ。
機械学習の世界には、アルゴリズムを自動選択してくれるDataRobotという製品が1年前から実用化されている。これは、データサイエンティストでなくても一般ユーザーが簡単に機械学習を利用できるように、データ投入さえすればアルゴリズム選択とチューニングまで自動的に決めてくれるソフトウェアだ。実際に機械学習を利用している人ならわかるはずだが、この最も面倒で時間のかかる工程を、自動化してくれるので実用的な製品なのだ。もっとも選択できる機械学習のアルゴリズムは決まっているので、新規のアルゴリズムを自動生成するに近いAutoMLと比較してはいけないのかもしれないが、発想は同じだろう。
まあとにかく、AI研究者たちが長い時間をかけてコツコツとアルゴリズムを研究してきた時代は、過ぎ去ってしまったようだ。世界のトップレベルの研究が、すぐに無料で公開されてしまうのでは、その研究成果を追いかけるだけで現場は精いっぱいだろう。専門の研究者がやっと追従できる世界なのだから、一般ユーザーは既に理解できなくなってきている。ましてや、AIがAIの設計を始めたら、AI専門家まで追従できなくなるSFのような世界になってしまいそうだ。
※コメント投稿者のブログIDはブログ作成者のみに通知されます