このブログは、株式会社フィックスターズのエンジニアが、あらゆるテーマについて自由に書いているブログです。
ソリューション事業部の遠藤です。
巷で話題のディープラーニングのモデルを動かすには、大きく分けて学習と推論の2つのフェーズがあります。実製品でディープラーニングを適用しようとした場合、基本的には2つのフェーズのうちの推論が動きます。したがって、推論の高速化はディープラーニングを適用するにあたって非常に重要なテーマです。
今回より4回にわたって、推論の高速化に効果のあるディープラーニング推論ライブラリの TensorRT を紹介します。
今回は第1回ということで、TensorRT の概要をまとめます。
TensorRT は、NVIDIA製の高性能ディープラーニング推論最適化・実行ライブラリです。TensorRT を用いるとネットワークが最適化され、低レイテンシ・高スループットの推論を実現することができます。
TensorRT は具体的に、以下のような最適化・高速化をネットワークに対し適用します。
TensorRT で利用可能なニューラルネットのレイヤは、以下のとおりです。一般的なニューラルネットに必要なレイヤは、一通りサポートされています。
TensorRT の公式サイトによると、以下の環境がサポートされています。
GeForce は残念ながら公式にはサポートされていません。
以上で、TensorRT の紹介を終わります。次回は、TensorRT の導入方法について説明したいと思います。
keisuke.kimura in Livox Mid-360をROS1/ROS2で動かしてみた
Sorry for the delay in replying. I have done SLAM (FAST_LIO) with Livox MID360, but for various reasons I have not be...
Miya in ウエハースケールエンジン向けSimulated Annealingを複数タイルによる並列化で実装しました
作成されたプロファイラがとても良さそうです :) ぜひ詳細を書いていただきたいです!...
Deivaprakash in Livox Mid-360をROS1/ROS2で動かしてみた
Hey guys myself deiva from India currently i am working in this Livox MID360 and eager to knwo whether you have done the...
岩崎システム設計 岩崎 満 in Alveo U50で10G Ethernetを試してみる
仕事の都合で、検索を行い、御社サイトにたどりつきました。 内容は大変参考になりま�...
Prabuddhi Wariyapperuma in Livox Mid-360をROS1/ROS2で動かしてみた
This issue was sorted....