
米グーグルは一つのモデルで100万種類のタスクを処理できる「万能AI」の開発を進めている
人工知能(AI)が自ら学習しAIをつくる技術の開発が進んでいる。
グーグルが開発する「万能AI」のイメージ
現在のAIは基本的に一つのモデルで1種類のタスクしか処理できない。画像認識AIには音声認識はできないし、大量の種類の昆虫を学ばせたAIは昆虫の種類を判別できるが、魚類の種類は判別できない。
グーグルの計画では、一つのモデルに画像認識や音声認識など様々なタスクを学習させる。そうして万能AIのモデルを作り、100万種類を超えるタスクに対応することを目指す。学習していない未知のタスクに対しては、100万種類の学習済みタスクとの類似性からどう対処すればよいかを判断する。
グーグルは17年6月に発表した論文で、一つのモデルに8種類のタスクを段階的に学習させていったところ、学習したタスクの数が増えるほど一部のタスクの精度が上がり、各タスクの精度に悪影響が出なかったことを検証によって確かめたと記している。グーグルは学習するタスクの種類を増やしていくことで万能AIを目指す。
■AIがAIの判断根拠を説明
グーグルのクラウドAI事業を統括するバイスプレジデント(VP)のラジェン・シェス氏は「AIは今後、人間を助ける方向で進化していく」と語る。その一つの例が、同社が19年11月21日に発表した「Cloud Explainable AI(説明可能AI)」というクラウドAIのサービスだ。
説明可能AIは既存AIのニューラルネットワークの稼働状況を分析して、AIによる判断の根拠を人間に分かる形で提示する。例えば画像認識AIが分析対象であれば、被写体を分類する際に根拠としたピクセルをハイライト表示する。表形式のデータなら、データのどの部分(特徴)が判断に大きな影響を与えたのかを数値で示す。
これまで深層学習が生み出したニューラルネットワークはユーザーにとって「ブラックボックス」だと言われてきた。「説明可能AIはニューラルネットワークをトレース(追跡)することで、ブラックボックスの中を人間が理解できるように説明する。説明可能AIによって、判断の根拠が示せないAIは使えないとのスタンスを示す金融機関などにもAIの導入が広がりそうだ」とシェスVPは自信を見せる。