Poplar SDK 2.4がリリースされ、当社サポートポータルと
Docker Hubからダウンロードできるようになりました。
今回のリリースは、ソフトウェアのリリースと最適化において大きな成功を収めた一年の集大成であるとともに、継続的な進歩やソフトウェアの成熟度、使いやすさ、スケールアウト能力、さらにはリファレンスアプリケーションやMLPerfの評価結果によって実証された高性能ベンチマークなども具現化する、新たなエコシステムパートナーシップの集大成でもあります。
Poplar SDK 2.4の新機能
今回のリリースでは、使いやすさと性能をさらに向上させ、開発者が機械学習モデルをさらに高速化できるようにするための改良が数多く実装されているほか、
GitHubの公開サンプルに新しいアプリケーションのコードが追加されています。
- ViT、UNet、GPT、RNN-T、FastSpeech2、TGNなどの新しい公開サンプル
- コンパイル時間の最適化
- TensorFlowにおける実行時の勾配蓄積数の動的設定
- IPU TensorFlowアドオンパッケージ
- PopRun/PopDist for Distributed TensorFlow 2 (プレビュー):使いやすい分散マルチホストスケールアウトサポート
- PopARTおよびPyTorch向けにI/Oとコンピュートをオーバーラップ
- PopVision System AnalyserのIPU使用率レポートを強化
- Debian 10.7をフルサポート
開発者エクスペリエンスを強化
Poplar SDK 2.4では、IPUシステム上でAIアプリケーションを簡単に高速化できるよう、数多くの改良が実装されています。
拡大し続ける当社のModel Gardenですが、今回のリリースではAI専門家向けアプリケーションが多数追加されたほか、コンピュータビジョンやNLP、音声処理、GNNをカバーする複数のML分野でモデルの対応範囲を拡大。これまでで最も大規模な更新となりました。新しいモデルには、Vision TransformerやUNet、GPT、RNN-T、FastSpeech2、Temporal Graph Networks(TGN)などがあります。これらは
GitHubから直接アクセスできるほか、Graphcoreウェブサイトの開発者ポータル
Model Gardenのページからもアクセスできます。
コンパイル時間の最適化により、モデル開発時のイテレーション時間を短縮。最大で28%の改善を実現しました。
TensorFlowの機能
TensorFlowにおいて、パイプライン化されたモデルに対して実行時に勾配蓄積数を指定できるようになりました。これによってグローバルバッチサイズを動的に定義できるようになるうえ、このハイパーパラメータの調査や調整を行う際に、実験をより高速に行えるようになります。新しいIPU TensorFlowアドオンパッケージには、AdamやStochastic Gradient Descent、LAMBなど、Graphcoreのアプリケーションチームが開発した(TensorFlow 2で使用できる)IPU固有のKerasオプティマイザが含まれています。
I/Oをオーバーラップ
Poplar Advanced Runtime(PopART)やPyTorchフレームワークのI/Oとコンピュートをオーバーラップさせる機能を導入することで、コンピュート効率を引き上げ、IPUハードウェア上で動作するプログラムの大幅な高速化も実現しています。
PopVisionツール
開発者はPopVision分析ツールを使ってアプリケーションの性能をより深く理解できますが、PopVision System Analyser向けの改良されたIPU使用率レポートが今回のリリースで追加されました。
当社ウェブサイトからPopVisionを直接ダウンロードすることもできます。
Debian 10.7をサポート
Poplar SDK 2.3で実装されたDebian 10.7のプレビューサポートに続き、今回のリリースではこのオペレーティングシステムをフルサポートしています。
開発者向け資料を拡充
最新のドキュメンテーションやチュートリアル、コード例、ウェビナー、ビデオ、研究論文など、IPUのプログラミングに関するあらゆる資料は当社の
開発者ポータルでご覧いただけます。ぜひご活用ください。