- ONNXサポート
- フォーマット変換
- データ型の自動変換
- モデルの作成
- モデルの実行
- ストラテジーテスターでの実行
- OnnxCreate
- OnnxCreateFromBuffer
- OnnxRelease
- OnnxRun
- OnnxGetInputCount
- OnnxGetOutputCount
- OnnxGetInputName
- OnnxGetOutputName
- OnnxGetInputTypeInfo
- OnnxGetOutputTypeInfo
- OnnxSetInputShape
- OnnxSetOutputShape
- データ構造体
OnnxRun
ONNXモデルを実行します。
bool OnnxRun(
|
パラメータ
onnx_handle
[in] OnnxCreateまたは OnnxCreateFromBufferで作成されたONNXセッションオブジェクトハンドル
フラグ
[in] 実行もウドを示す、ENUM_ONNX_FLAGS空のフラグ(ONNX_DEBUG_LOGS、 ONNX_NO_CONVERSION)
...
[in] [out] モデルの入出力。
成功の場合はtrue、それ以外の場合はfalse。エラーコードの取得にはGetLastError関数が呼ばれます。
ENUM_ONNX_FLAGS
ID |
説明 |
|---|---|
ONNX_LOGLEVEL_VERBOSE |
すべてのメッセージをログに記録します |
ONNX_LOGLEVEL_INFO |
情報メッセージ、警告、およびエラーをログに記録します(このフラグはONNX_DEBUG_LOGSの代わりになります) |
ONNX_LOGLEVEL_WARNING |
警告とエラーをログに記録します(デフォルト) |
ONNX_LOGLEVEL_ERROR |
エラーのみをログに記録します |
ONNX_NO_CONVERSION |
自動変換を無効にし、ユーザーデータをそのまま使用します |
ONNX_COMMON_FOLDER |
Common\Filesフォルダからモデルファイルを読み込みます。値はFILE_COMMONフラグと同じです。 |
ONNX_USE_CPU_ONLY |
ONNXモデルをCPUのみで実行します |
ONNX_GPU_DEVICE_0 |
インデックス0のCUDAデバイス(デフォルト) |
ONNX_GPU_DEVICE_1 |
インデックス1のCUDAデバイス* |
ONNX_GPU_DEVICE_2 |
インデックス2のCUDAデバイス* |
ONNX_GPU_DEVICE_3 |
インデックス3のCUDAデバイス* |
ONNX_GPU_DEVICE_4 |
インデックス4のCUDAデバイス* |
ONNX_GPU_DEVICE_5 |
インデックス5のCUDAデバイス* |
ONNX_GPU_DEVICE_6 |
インデックス6のCUDAデバイス* |
ONNX_GPU_DEVICE_7 |
インデックス7のCUDAデバイス* |
ONNX_ENABLE_PROFILING |
ONNXモデルのプロファイリングを有効化します |
* ONNX_GPU_DEVICE_Nの形式のフラグは、2つ以上のCUDA対応GPUを搭載したシステムで使用してください。複数のGPU選択フラグが指定された場合、最も低いインデックスのデバイスが使用されます。
存在しないデバイスインデックスが指定された場合、GPUは自動的に選択されます。
例:
const long ExtOutputShape[] = {1,1}; // モデルの出力形状
|
参照