Google Coral Edge TPU

Google Coral Edge TPU通過代理店Gravitylink向け全球銷商!

Nvidia対Google対Intel,Edge AIハードウェアに最適なのはどれですか?

2019-08-23 17:10:18 | Google Coral Edge TPU

Edge AIはまだ新しいものであり、多くの人はプロジェクトにどのハードウェアプラットフォームを選択すべきか確信がありません。今日、私たちはいくつかの主要なプラットフォームと新しいプラットフォームを比較します。

Nvidiaは、2012年のディープラーニングのブーム以来、GPUでAIチップを支配してきました。それらは、電力を消費し、騒がしく、高価(ビットコインゴールドラッシュのせい)でしたが、他の選択肢はなく、我慢しなければなりませんでした。約3年前、Googleは、データセンターでの深層学習の推論速度を加速するTensor Processing Unit(TPU)を設計したと発表しました。それは、データセンターとエッジの両方に特化したAIチップを発表するために、定評のあるハイテク企業と新興企業の急増を引き起こしました。

今日お話しするのは、エッジAIのプラットフォームです。それでは、エッジAIとは正確には何ですか?エッジAIという用語は、エッジコンピューティングから借用されています。つまり、データソースの近くで計算が行われています。現在、AIの世界では、一般的にデータセンターまたは大型コンピューターで発生していないものを意味します。これには、IoT、携帯電話、ドローン、自動運転車などが含まれますが、実際には物理サイズの点で大きく異なり、多くのベンダーがあります。

したがって、ポケットに快適に収まり、個人および小規模企業が購入して使用できるプラットフォームに焦点を当てます。 Nvidiaは、次のベンチマーク比較で競合他社の良い仕事をしました。IntelNeural Computer Stick、Google Edge TPU、独自のJetson Nanoがあります。

性能

リアルタイム展開のためにAIモデルとハードウェアプラットフォームを評価するとき、最初に検討するのは、「どれだけ速いか」です。コンピュータービジョンタスクでは、ベンチマークは通常フレーム/秒(FPS)で測定されます。数値が大きいほどパフォーマンスが向上することを示します。リアルタイムビデオストリーミングの場合、ビデオが滑らかに見えるには少なくとも約10 fpsが必要です。 Nvidiaは、https://developer.nvidia.com/embedded/jetson-nano-dl-inference-benchmarksで結果を見つけることができるいくつかのベンチマークを実行しました。ベンチマークで使用されるアプリケーションは多数ありますが、最も一般的なものの2つは分類とオブジェクト検出です。計算上、分類は、その画像が何であるかの予測を1つだけ行う必要があるため、最も単純なタスクです。リンゴまたはオレンジ。一方、検出タスクは、複数のオブジェクトとそのクラスの場所を検出する必要があるため、より要求が厳しくなります。複数の車と歩行者。これは、ハードウェアアクセラレーションを必要とするアプリケーションです。

これら2つのアプリケーションの意味を理解したので、ベンチマーク結果を見ることができます(DNRについては後で説明します)。 Jetson Nanoの数値は、リアルタイムの推論に適しているようです。ベースラインとして使用してみましょう。 Intel Neural Computer Stick 2(ここではNCS2と呼ぶ)は、MobileNet-v2を使用して30 FPSの分類を実行できます。これは悪くありません。ただし、11 FPSでオブジェクト検出を行うのは本当に苦労します。ところで、NCS2はUSBスティックであり、この場合はRaspberry Pi3である外部ホストコンピューターと一緒に使用する必要があります。より強力なコンピューターを使用する場合、ベンチマークの数値は高くなる可能性があります。 UCS2なしのRaspberry Pi 3のみの数値を見ると、2.5 FPSで分類の推論を行うことができます。これは、趣味やおもちゃのプロジェクトにとっては悪くありません。申し分なく、UCS2に戻ると、約10 FPSのフレームレートは、特に高速移動のリアルタイムオブジェクトトラッキングにはおそらく十分に速くなく、多くのオブジェクトが見落とされる可能性が高いため、補正するには非常に優れたトラッキングアルゴリズムが必要ですそのために。もちろん、ベンチマーク結果を完全に信頼するわけではありません。通常、同社は手作業で最適化されたソフトウェアを競合他社の標準モデルと比較しました。

次に、Google Edge TPUに注目しましょう。企業が優れた競合他社の結果をレポートに含めることは非常にまれです。エッジTPUは分類で130 FPSを実行でき、それはNanoの2倍です!オブジェクト検出の場合、Edge TPUも高速ですが、48 FPS対39 FPSでほんのわずかです。数日前にEdge TPUボードを手に入れたので、同梱されているデモを実行しました。推論速度に大きな影響を与えるニューラルネットワークの画像サイズを調べるためにコードには触れていませんが、デモは確かに非常に滑らかに見え、FPSは印象的でした!

1_tZ8mh0ZbgMWmhW5HBnEmUw.png

サイズ、電力、コスト

物理的なサイズは重要な要素であり、エッジデバイスに収まるほど小さくなければなりません。開発ボードには、生産モジュールで終わらない可能性のある周辺機器が含まれています。イーサネット、USBソケット、しかし開発ボードはサイズの良いアイデアと消費電力の指標を与えてくれます。下の図は、実際の開発ボードを示しています(NCS1しか持っていませんが、Coral USBはまだ受け取っていません)。真ん中から始めると、Coral Edge TPU開発ボードのサイズはクレジットカードとまったく同じであり、それを参考にしてサイズを測定できます。

開発ボードの価格と生産モジュールのサイズ

NCS2 — 99ドル、72.5mm x 27mm
Edge TPU USB — 74.99ドル、65mm x 30mm
Edge TPU開発ボード— 149.99ドル(開発)、40 x 48mm
Jetson Nano — 129ドルまたは99ドル(開発)、45mm x 70mm

8.19推特海报21.jpg

Jetson NanoとEdge TPU devはどちらも5V電源を使用し、前者は10Wの電力仕様を持っています。 Edge TPUの番号は見つかりませんでしたが、現在の2Aから3Aの5Aの仕様から、同じ電源ブラケットにあると思われます。ただし、Edge TPUボードのヒートシンクははるかに小さく、異論検出デモ中に常に動作するわけではありません。それとEdge TPUの効率的なハードウェアアーキテクチャを組み合わせることで、消費電力はJetson Nanoの消費電力よりも大幅に低くなるはずです。恐ろしい挑戦を認識して、Nvidiaは開発キットの価格を99ドルと低く抑えていたと思います。 Googleは、生産モジュールの価格を発表していませんが、Jetson Nanoに対して競争力があると推測しています。

一方、両方のUSB3.0スティックのサイズは似ていますが、NCS2はパフォーマンスが低いにもかかわらずより高価です。これは、Intelが破滅的であることを意味しますか?必ずしも必要ではありませんが、ソフトウェアは戦いの流れを変える可能性があります。

ソフトウェア

WINDOWSサポート

既にご存知のように、USBスティックはホストシステムに接続する必要があります。システムがWindowsを実行している場合、NCS2が唯一の選択肢です。物語の終わり、あなたは今読むのをやめることができます。

TPUの制限

Edge TPUはパフォーマンスとサイズの点で最も競争力があるように見えますが、ソフトウェアにおいても最も制限されています。ホストシステムとしてUbuntuのみをサポートしますが、最大の課題は機械学習フレームワークにあります。 TensorflowであるMLフレームワークは1つしかサポートしていません(正しく推測しても賞金はありません。Tensorflowの所有者はGoogleの権利ですか?)。実際、いや、技術的にはTensorflow Liteと呼ばれ、限られた数のニューラルネットワークレイヤーをサポートするバリアントです。さらに悪いことに、完全なTensorflow Liteもサポートされていませんが、8ビット整数(INT8)に量子化されたモデルのみがサポートされています。これは、INT8に加えてFP16(16ビット浮動小数点)もサポートするNCS2とは対照的です。

その意味は何ですか?従来、ディープラーニングモデルはFP32でトレーニングされ、一般に、後で精度を大幅に低下させることなく、簡単にFP16に変換できます。ただし、トレーニング後の変換によって通常は致命的な精度が得られるINT8には当てはまりません。トレーニングに量子化を組み込む必要があります。つまり、事前にトレーニングされたFP32 AIモデルを使用することはできませんが、モデルにいくつかのレイヤーを追加し、最初からトレーニングする必要があります。また、レイヤーが追加されるため、通常の時間よりもトレーニングに時間がかかります。量子化の詳細については、こちらのブログをご覧ください。 Googleは、事前調整済みのモデルを提供しており、微調整して多くの時間を節約できますが、残念ながら、選択できるコンピュータービジョンモデルはわずかです。これが、NvidiaのEdge TPUベンチマークに非常に多くのDNRが存在した理由です。これは、IntelとNvidiaが優れているところです。インテルには、選択可能な事前トレーニング済みのモデルが多数あります(https://software.intel.com/en-us/openvino-toolkit/documentation/pretrained-models)。 興味深いことに、Binary Convolutionレイヤーまたは一般的な用語である1ビットレイヤーを使用するresnet50-binary-0001が含まれています。 IntelのOpenVINOでは、Tensorflow、Caffe、MxNet、Kaldi、ONNXのモデルを変換できます。

NVIDIAはソフトウェアの王様です

AIハードウェアの先駆者であるNvidiaのソフトウェアは、TensorRTがMATLABを含むほとんどのMLフレームワークをサポートしているため、最も多用途です。 EdgeTPUとNCS2は、コンピューターレイヤーの一部のサブセット(主にコンピュータービジョンタスク用)をサポートするように設計されていますが、Jetson Nanoは本質的にGPUであり、その大部分のデスクトップGPUが低速でしか実行できないほとんどの計算を実行できます。とはいえ、アプリケーションにコンピュータービジョン以外のモデルが含まれる場合、リカレントネットワークまたは多くのカスタムレイヤーを使用して独自のモデルを開発する場合は、Jetsonシリーズを使用して、トレーニング済みモデルを組み込み展開に移植する際の厄介な驚きを回避する方が安全です。 Nvidiaは、複数のビデオストリーミングを可能にするDeepStream SDKと、経路計画と自律ナビゲーションのためのIsaacロボットエンジンも提供します。

用途

これで、これらのプラットフォームの長所と短所の概要がわかりました。どのプラットフォームをどのアプリケーションに使用する必要がありますか?それらはすべてコンピュータービジョンAIを実行できますが、これはアプリケーションがそれぞれに最適だと思います。また、独自のハードウェア機能についても説明します。

8.19推特海报22.jpg

インテルNCS2

長所:Windows、高速展開、適切なモデル選択をサポート

短所:推論速度が比較的遅く、価格が高い

最適なアプリケーションは、キオスク、ATM、Windowsを実行するPOSシステムです。既存のシステムへの非常に簡単かつ迅速なAIアップグレードが可能です。また、愛好家や少量のプロジェクトにも適しています。

エッジTPU

長所:最高のパフォーマンス、Wifiおよび暗号化エンジンが付属

短所:限られたトレーニングリソース、AIモデル、ソフトウェアライブラリOpenCVはサポートされていません。

価格はすべての中で最高ですが、これにはWifiや暗号化エンジンなどの完全なシステムが含まれているため、家庭用のスマートカメラなどの家電やIoTデバイスに最適です。町で最新の子供であるという事実のため、利用可能なリソース(トレーニング資料、AIモデル、チュートリアル)は多くなく、より多くのR&Dコストを支払うことができる家電ビジネスにとってより理にかなっています。

NVIDIA JETSON NANO

長所:優れたソフトウェアエコシステムとリソース、追加のソフトウェアライブラリ

短所:少しかさばる

これは、ドローン、おもちゃ、掃除機などの自動運転車に最適です。汎用AIプラットフォームであるため、他のプラットフォームが優れていない分野では、Nanoを選択するのが安全です。

より多くのベンチマーク
これらのプラットフォームの実際のパフォーマンスを測定するために、いくつかのベンチマークを行うことを計画していました。しかし、このブログの公開後、速度、消費電力、温度を詳細に測定したレポートを見つけたので、車輪を再発明する手間が省けます。順序は基本的に私の推定と一致します。EdgeTPUが最も速く、NanoとNCS2がそれに続きます。また、NanoはEdge TPUに比べてより多くの電力を消費します。

先物

EDGE AIが到着したので、将来のハードウェアについての私の予想は何ですか。明らかな傾向の1つは、引き続き発生する低ビット幅の使用です。現在、8ビット未満の精度は十分ではありませんが、これは活発な研究分野であり、ハードウェア企業はアルゴリズム研究のブレークスルーを歓迎する準備ができているはずです。

ディープラーニングによって革命を起こした最初の分野であるコンピュータービジョンは、前述のすべてのプラットフォームが、コンピュータービジョンに使用されるフィードフォワード畳み込みニューラルネットワークに重点を置いていることを確認しています。 Alexaのような音声ベースのインテリジェントシステムの台頭により、音声用のエッジAIチップにはギャップがあります。


SSDオブジェクト検出を実行するCoral Edge TPUアクセラレーションを備えたRaspberry Pi 3 Model B

2019-08-22 13:52:21 | Google Coral Edge TPU

Coral Edge TPUアクセラレータを使用したインラインrt-ai Edge Stream Processing Elementから、Raspberry Pi 3 Model BとPiカメラを搭載した組み込みバージョンに移行するのはそれほど難しくありませんでした。 このSPEのrt-ai Edgeテスト設計は、非常に簡単です:

微信截图_20190822111520.png

ご覧のとおり、Pi + Coralは1280 x 720フレームで約4 fpsで動作しますが、それほど悪くはありません。 この例では、Raspberry Piノード(Pi7)でPiCoralカメラSPEを実行し、デフォルトノード(i7 Ubuntuマシン)でView SPEを実行しています。

また、検出データと関連するJPEGビデオフレームの両方を含むビデオとメタデータの組み合わせ出力を使用しています。 ただし、PiCoral SPEにはメタデータのみの出力もあります。 これには、すべてのフレーム情報と検出データ(スコア、ボックスなど)が含まれますが、JPEGフレーム自体は含まれません。 これはいくつかの理由で役立ちます。

まず、特にRaspberry PiがWiFi経由で接続されている場合、JPEGの送信は少し面倒になる可能性があり、不要な場合は非常に無駄です。

第二に、生のビデオデータがRaspberry Piを離れることがないという点で、潜在的なプライバシーの問題を満たします。 メタデータに有用なダウンストリーム処理に十分な情報が含まれている場合、これはシステムを構成する非常に効率的な方法です。

微信截图_20190822111713.png

BANNER3-英文.jpg


Google Edge TPUとは何ですか?

2019-08-21 13:41:43 | Google Coral Edge TPU

Edge TPUとは何ですか?

Edge TPUは、低電力デバイス向けの高性能ML推論を提供するGoogleが設計した小さなASICです。 たとえば、MobileNet V2などの最先端のモバイルビジョンモデルを400 FPSで電力効率の高い方法で実行できます。
1_Jryu97esXxkonWBj4t62fw.jpeg

Edge TPUビルトインを含む複数の製品を提供しています。

Edge TPUはどの機械学習フレームワークをサポートしていますか?

TensorFlow Liteのみ。

Edge TPUはどのタイプのニューラルネットワークをサポートしていますか?

第一世代のEdge TPUは、畳み込みニューラルネットワーク(CNN)などのディープフィードフォワードニューラルネットワーク(DFF)を実行できるため、さまざまな視覚ベースのMLアプリケーションに最適です。

サポートされているモデルアーキテクチャの詳細については、モデルの要件を参照してください。

Edge TPUのTensorFlow Liteモデルを作成するにはどうすればよいですか?

モデルをTensorFlow Liteに変換する必要があり、量子化に対応したトレーニング(推奨)またはトレーニング後の完全整数量子化のいずれかを使用して量子化する必要があります。 次に、Edge TPUとの互換性のためにモデルをコンパイルする必要があります。 詳細については、Edge TPUのTensorFlowモデルをご覧ください。

ただし、画像分類アプリケーションを構築している場合は、Cloud AutoML Visionを使用して、Edge TPUと互換性のあるモデルを簡単に構築することもできます。 このWebベースのツールは、独自の画像を使用してモデルをトレーニングし、モデルを最適化してからEdge TPUにエクスポートするためのグラフィカルUIを提供します。

Edge TPUの処理能力はどのくらいですか?

Edge TPUは、1秒あたり4兆回の操作(テラ操作)(TOPS)を実行でき、各TOPSに0.5ワット(1ワットあたり2 TOPS)を使用します。

実際にどのようなパフォーマンスを提供しますか?

こちらのベンチマークをご覧ください。(https://coral.withgoogle.com/docs/edgetpu/benchmarks)

Edge TPUは加速MLトレーニングを実行できますか?

はい、ただし最終層のみを再トレーニングします。 TensorFlowモデルはEdge TPUで高速化するためにコンパイルする必要があるため、後ですべてのレイヤーの重みを更新することはできません。 ただし、2つの異なる方法で高速転送学習を実行するAPIを提供しています。

クロスエントロピー損失関数を使用して、最終的に完全に接続されたレイヤーだけの重みを更新する逆伝播。
新しいデータからの画像埋め込みを使用して最終層に新しい活性化ベクトルを刷り込む重み刷り込み。これにより、非常に小さな小さなデータセットで新しい分類を学習できます。

Dev BoardとUSB Acceleratorの違いは何ですか?

Coral Dev Boardは、SOMに統合されたSOCとEdge TPUを含むシングルボードコンピューターであるため、完全なシステムです。 SOMを削除(または個別に購入)し、3つのボード間コネクタを介して他のハードウェアと統合することもできます。このシナリオでも、SOMにはSOCとEdge TPUを備えた完全なシステムとすべてのシステムインターフェイスが含まれます( I2C、MIPI-CSI / DSI、SPIなど)は、基板間コネクタの300ピンを介してアクセスできます。

一方、Coral USB Acceleratorは、既存のシステムにコプロセッサーとしてEdge TPUを追加するアクセサリーデバイスです。USBケーブルを使用してLinuxベースのシステムに接続するだけです(最高のパフォーマンスを得るにはUSB 3.0をお勧めします)。

Edge TPUチップだけを購入できますか?

いいえ、現在、スタンドアロンのEdge TPU ASICは提供していませんが、USB 3.0またはPCI-Eインターフェイスのいずれかを使用して、既存のハードウェアシステムのコプロセッサーとしてEdge TPUを簡単に統合できる2つの製品を提供しています。

しかし、あなたはここからサンゴ装置を購入することができます:https://store.gravitylink.com/global


微信截图_20190520145825.png

微信截图_20190520145835.png


Coralの夏の更新:トレーニング後の量的サポート、TF Lite delegate、および新しいモデル!

2019-08-20 11:00:00 | Google Coral Edge TPU

Coral’sは、顧客との仕事、流通の拡大、新機能の構築に忙しい夏を過ごしました。もちろん、R&Rには時間がかかります。ローカルAIのプラットフォームの更新、初期の作業、新しいモデルを皆さんと共有できることを楽しみにしています。

1_Jryu97esXxkonWBj4t62fw.jpeg

コンパイラがバージョン2.0に更新され、トレーニング後の量子化を使用して構築されたモデルのサポートが追加されました(完全な整数量子化を使用する場合のみ(以前は量子化対応トレーニングが必要でした))、いくつかのバグが修正されました。 TensorflowチームがMedium postで言及しているように、「トレーニング後の整数量子化により、ユーザーはトレーニング済みの浮動小数点モデルを完全に量子化して、8ビット符号付き整数(つまり int8)のみを使用できます。」モデルサイズを縮小すると、この方法で量子化されたモデルは、Coral製品にあるEdge TPUによって高速化できるようになりました。

また、Edge TPU Pythonライブラリをバージョン2.11.1に更新して、Coral製品の転移学習用の新しいAPIを追加しました。新しいデバイス上の逆伝播APIを使用すると、画像分類モデルの最後のレイヤーで転送学習を実行できます。モデルの最後のレイヤーはコンパイルの前に削除され、デバイス上で実装されてCPUで実行されます。ほぼリアルタイムの転送学習が可能になり、モデルを再コンパイルする必要がありません。以前にリリースされた刷り込みAPIは、既存のクラスをすばやく再トレーニングしたり、他のクラスをそのままにして新しいクラスを追加できるように更新されました。事前に訓練された基本モデルのクラスを保持することもできます。デバイス上での転送学習の両方のオプションの詳細をご覧ください。

これまで、Edge TPUでモデルを高速化するには、Edge TPU Python APIまたはC ++を使用してコードを記述する必要がありました。しかし、TensorFlow LiteインタープリターAPIを使用すると、Edge TPUのTensorFlow Liteデリゲートがリリースされたため、Edge TPUでモデルを高速化できます。 TensorFlow Lite Delegate APIは、TensorFlow Liteインタープリターがグラフ実行の一部またはすべてを別のエグゼキューターに委任できるようにするTensorFlow Liteの実験的な機能です。この場合、他のエグゼキューターはEdge TPUです。 Edge TPUのTensorFlow Liteデリゲートの詳細をご覧ください。

微信截图_20190820104427.png

CoralはEdge TPUおよびAutoMLチームとも協力して、EfficientNet-EdgeTPUをリリースしています。EfficientNet-EdgeTPUは、Edge TPUで効率的に実行するようにカスタマイズされた画像分類モデルのファミリです。モデルはEfficientNetアーキテクチャに基づいており、Edge TPUでの低遅延に最適化されたコンパクトなサイズでサーバー側モデルの画像分類精度を実現します。 Google AIブログでモデルの開発とパフォーマンスの詳細を確認し、コーラルモデルのページでトレーニングおよびコンパイルされたバージョンをダウンロードできます。

また、夏の終わりに合わせて、今年の授業や研究室での実験をお望みの方には、アローが学生教師割引を提供していることもお知らせしたいと思います。

Coralプラットフォームの進化を続けられることを嬉しく思います。coral-support@ google.comでフィードバックを送信してください。


Coral Dev Boardは、Edge TPUコプロセッサーを搭載したシングルボードコンピューターです。 機械学習モデル用の高速なデバイス上の推論を必要とする新しいプロジェクトのプロトタイピングに最適です。

6.27-DEV-无logo.jpg

6.27-USB-无logo.jpg

Google Coral EDGE TPU 海外代理店薦める,グローバル出荷:https://store.gravitylink.com/global
Coral USB Acceleratorは、コンピューターのコプロセッサーとしてEdge TPUを提供するUSBデバイスです。 Linuxホストコンピューターに接続すると、機械学習モデルの推論が高速化されます。


Google Edge TPU用に構築されたモデル

2019-08-19 14:38:50 | Google Coral Edge TPU

以下のリストでは、各「Edge TPUモデル」リンクは、Edge TPUで実行するためにプリコンパイルされた.tfliteファイルを提供します。 APIデモに示されているスクリプトを使用して、Coralデバイスでこれらのモデルを実行できます。 (モデルの対応するラベルファイルもダウンロードすることを忘れないでください。)

多くのモデルについて、「すべてのモデルファイル」へのリンクも提供しています。これは、以下を含むアーカイブファイルです。

  • 訓練されたモデルのチェックポイント
  • 訓練されたモデルの凍結グラフ
  • 評価グラフテキストプロトタイプ(簡単に表示できるように)
  • 入力および出力情報を含む情報ファイル
  • CPUで実行される量子化TensorFlow Liteモデル(分類モデルにのみ含まれる)

分類モデルを再トレーニングし、オブジェクト検出モデルを再トレーニングするチュートリアルに示されているように、この「すべてのモデルファイル」アーカイブをダウンロードして、転送学習の基礎としてモデルを使用する場合に必要なチェックポイントファイルを取得します。

すべてのモデルを一度にダウンロードする場合は、Gitリポジトリhttps://coral.googlesource.com/edgetpuのクローンを作成してから、edgetpu / test_data /でモデルを見つけることができます。

注意:これらは製品品質のモデルではありません。 これらはデモンストレーションのみを目的としています。

Edge TPU用の独自のモデルを構築するには、Edge TPUコンパイラを使用する必要があります。

ImageNetでトレーニングされたすべてのモデルはILSVRC2012データセットを使用しました。

画像分類

EfficientNet-EdgeTpu(S)

1,000種類のオブジェクトを認識
データセット:ImageNet
入力サイズ:224x224

EfficientNet-EdgeTpu(M)

1,000種類のオブジェクトを認識
データセット:ImageNet
入力サイズ:240x240

EfficientNet-EdgeTpu(L)

1,000種類のオブジェクトを認識
データセット:ImageNet
入力サイズ:300x300

MobileNet V1(ImageNet)

1,000種類のオブジェクトを認識
データセット:ImageNet
入力サイズ:224x224

MobileNet V2(ImageNet)

1,000種類のオブジェクトを認識
データセット:ImageNet
入力サイズ:224x224

MobileNet V2(iNat昆虫)

1,000種類以上の昆虫を認識
データセット:iNaturalist
入力サイズ:224x224

MobileNet V2(iNatプラント)

2,000種類以上の植物を認識
データセット:iNaturalist
入力サイズ:224x224

MobileNet V2(iNatバード)

900種類以上の鳥を認識
データセット:iNaturalist
入力サイズ:224x224

Inception V1(ImageNet)

1,000種類のオブジェクトを認識
データセット:ImageNet
入力サイズ:224x224

Inception V2(ImageNet)

1,000種類のオブジェクトを認識
データセット:ImageNet
入力サイズ:224x224

Inception V3(ImageNet)

1,000種類のオブジェクトを認識
データセット:ImageNet
入力サイズ:299x299

Inception V4(ImageNet)

1,000種類のオブジェクトを認識
データセット:ImageNet
入力サイズ:299x299

物体検出

MobileNet SSD v1(COCO)

90種類のオブジェクトの位置を検出します
データセット:COCO
入力サイズ:300x300

MobileNet SSD v2(COCO)

90種類のオブジェクトの位置を検出します
データセット:COCO
入力サイズ:300x300

MobileNet SSD v2(顔)

人間の顔の位置を検出します
データセット:Open Images v4
入力サイズ:320x320
(ラベルファイルは必要ありません)

デバイス上の再トレーニング(分類)

MobileNet v1埋め込み抽出プログラム

このモデルは、SoftmaxRegression APIを使用したデバイス上の転送学習の埋め込み抽出機能として使用できるように、最後に完全に接続されたレイヤーを削除してコンパイルされます。 このモデルはそれ自体で分類を実行しないため、SoftmaxRegression APIとペアにする必要があります。

詳細については、「バックプロパゲーションを使用してデバイス上で分類モデルを再トレーニングする」を参照してください。(https://coral.withgoogle.com/docs/edgetpu/retrain-classification-ondevice-backprop/)

L2ノルムを備えたMobileNet v1

これは、L2正規化レイヤーおよびImprintingEngine APIと互換性があるその他の変更を含むMobileNet v1の修正バージョンです。 Edge TPU用に構築されていますが、最後に完全に接続されたレイヤーがCPUで実行され、再トレーニングが可能になります。

詳細については、「重量インプリンティングを使用したデバイス上の分類モデルの再トレーニング」を参照してください。(https://coral.withgoogle.com/docs/edgetpu/retrain-classification-ondevice/)


Coral Dev Boardは、Edge TPUコプロセッサーを搭載したシングルボードコンピューターです。 機械学習モデル用の高速なデバイス上の推論を必要とする新しいプロジェクトのプロトタイピングに最適です。

google-coral-ai-iot-products.jpg

Coral USB Acceleratorは、コンピューターのコプロセッサーとしてEdge TPUを提供するUSBデバイスです。 Linuxホストコンピューターに接続すると、機械学習モデルの推論が高速化されます。