多くの技術者を雇用しているグーグルなら1週間単位で、新機能をリリースしたり開発途中のモデルにリンクさせたりは可能な組織を以前から持つている強みが有る。 以前から言っているように、人工知能の開発プロセスは決まっている、その中で昨年末にリリースしたオープンAI社のチャットポットの際立ったパーフォーマンスが驚きを与えた、発表から2か月でユーザー数が飛躍的に伸びた、月間1億人のユーザーを増やしたので、他社をしのぐ最速の成長を達成をする。ITでの開発環境が有るから出来る事で、それまで注目されなかった検索エンジンを持つ、マイクロソフトが「Bing」オープンAIの生成AI機能を組み込んだのがきっかけで、それまでの圧倒的な検索数での差にライバル意識がなかったグーグルで有ったが、上層部は非常事態宣言を出すほどに驚いた。準備は出来ていたので生成型AIの「Bard」をリリースする。
急に何かが出来るのではなく、その前に研究されていたのを引き継いでいるだけとか、機能の向上が見られた結果が、今日の大騒動になっている。画像生成AIや言葉を生み出すAIチャットGPTは生成系AIとして以前から存在していた、深層学習の事でこれの延長線上に今のが有る、それをディーププランニングともいう、同じことで英語表現か日本語かの違いだけで有る。 IT系の話になるとこの様な多くの開発途中で有ったり、完成した商品名が沢山出てくるので紛らわしい。それが主に海外発のモデルで有ったり、一部にそれを利用したりしている、開発者と言ってもゼロから始めた人でなく、途中で様々な組み合わせが起こったりしている、大変複雑系の開発をエンジニアは行っている。画像認識分野で深層学習AIが使われたのは2015年頃で、当時でさえ人間を超えたと言われていた。
言えることは人間とコンピュータが機械的でなく自然に近い対話を交わしている、イラストまでも出力する生成系AI技術の進歩が目ざましい、ほぼ瞬時だから驚く。 彼らは大規模なサーバーを構築している、AI分野だけでなく他分野での取り扱いが多い、数十台が並んでいるだけでなく金額にすれば数百億円から500億円の投資がサーバーに行われている、GAFAMと言われている会社はいずれも、この位のサーバーで管理運用している、電気代が高くなるので寒冷地に置いたり様々な工夫を行っている。残念だが日本企業は驚く程のサーバーでの運用はしていない。大規模言語モデルがユーザーの希望に対応している証拠の一例をグーグルやマイクロソフトは示している、日本語化も早かった、全ての言語に対応は少し先になる。
深層学習とか言語モデルとかの話には入れない、専門用語が多く出るし、開発中のモデルが出たりする、開発者には自分のレベルを測れるので、比較上では興味の分野かもしれない。 オープンAIは2020年7月に言語モデルGPT3をリリースした、モデルの規模を示すパラメータ数がGPT2の15億に対して、GPT3では1750億まで持って来た。こうなると指示文章は数行で良かったり1行(ワンショット)だったり、タスクの指示なし(ゼロショット)でもOKの場合も有る。 推論して学習する能力を備えているからだ。
日本にも幸いに1990年頃に大学で機械学習、自然言語処理、知識工学、深層学習を学んだ人が残っていた事はラッキーで有った。しかし人数は多くないのでこれから数年掛けて若い研究者を育てて行かねばならない、心理学者等異分野の専門家が少ないので、層としては低い方で有る。
今後は医学や創薬にAIが利用される時代がすぐ来る、その時に日本のポジションがキープされているのを期待する。