コンテンツにスキップ

NVIDIA - TensorRT RTX

NVIDIA TensorRT RTX実行プロバイダー

Section titled “NVIDIA TensorRT RTX実行プロバイダー”

NVIDIA TensorRT-RTX実行プロバイダー(EP)は、NVIDIA RTX GPU専用に設計された推論デプロイメントソリューションです。クライアント中心のユースケースに最適化されています。

TensorRT RTX EPは以下の利点を提供します:

  • 小さなパッケージフットプリント: エンドユーザーシステムでのリソース使用量を最適化し、200MB未満に抑制。
  • 高速なモデルコンパイルとロード時間: Just-in-Timeコンパイル技術を活用し、エンドユーザーデバイス上で数秒でRTXハードウェア最適化エンジンを構築。
  • ポータビリティ: 複数のRTX GPU間でキャッシュされたモデルをシームレスに使用。

TensorRT RTX EPは、NVIDIAの新しい深層学習推論エンジンTensorRT for RTXを活用して、RTX GPU上でONNXモデルを高速化します。MicrosoftとNVIDIAは密接に協力して、TensorRT RTX EPをONNX Runtimeに統合しました。

TensorRT RTX EPは、Ampere以降のアーキテクチャに基づくRTX GPU - NVIDIA GeForce RTX 30xx以上をサポートします。

現在、TensorRT RTX EPはソースコードからビルドできます。PyPiやNuGetなどのパッケージマネージャーからのインストールサポートは近日公開予定です。WinML関連のインストール手順については、WinMLインストールセクションを参照してください。

最小要件とソースからのビルド方法については、こちらを参照してください。