NVIDIA - TensorRT RTX
NVIDIA TensorRT RTX実行プロバイダー
Section titled “NVIDIA TensorRT RTX実行プロバイダー”NVIDIA TensorRT-RTX実行プロバイダー(EP)は、NVIDIA RTX GPU専用に設計された推論デプロイメントソリューションです。クライアント中心のユースケースに最適化されています。
TensorRT RTX EPは以下の利点を提供します:
- 小さなパッケージフットプリント: エンドユーザーシステムでのリソース使用量を最適化し、200MB未満に抑制。
- 高速なモデルコンパイルとロード時間: Just-in-Timeコンパイル技術を活用し、エンドユーザーデバイス上で数秒でRTXハードウェア最適化エンジンを構築。
- ポータビリティ: 複数のRTX GPU間でキャッシュされたモデルをシームレスに使用。
TensorRT RTX EPは、NVIDIAの新しい深層学習推論エンジンTensorRT for RTXを活用して、RTX GPU上でONNXモデルを高速化します。MicrosoftとNVIDIAは密接に協力して、TensorRT RTX EPをONNX Runtimeに統合しました。
TensorRT RTX EPは、Ampere以降のアーキテクチャに基づくRTX GPU - NVIDIA GeForce RTX 30xx以上をサポートします。
インストール
Section titled “インストール”現在、TensorRT RTX EPはソースコードからビルドできます。PyPiやNuGetなどのパッケージマネージャーからのインストールサポートは近日公開予定です。WinML関連のインストール手順については、WinMLインストールセクションを参照してください。
ソースからのビルド
Section titled “ソースからのビルド”最小要件とソースからのビルド方法については、こちらを参照してください。