Houdini 20.5 Copernicus

How to ONNX Inferenceの使い方

ONNX Inferenceノードでモデルを使用して推論を適用する方法について説明しています。

On this page

概要

ONNX Inference COPは、トレーニング済みモデルを使用して、そのノードの入力に対して推論を実行して評価してから、その出力を生成することができます。 また、トレーニング済みモデルは、テンソル(多次元データ)と呼ばれる入力と出力を持っています。 以下のワークフローでは、ONNX Inferenceノードを使用して1個以上のテンソルを使って推論を適用する方法を説明しています。

Note

モデル とは、ONNXファイルとその入力と出力のことを指します。

このノードとそのパラメータに関する詳細は、ONNX Inferenceを参照してください。

1個のテンソルを使って推論を適用する方法

  1. ONNXモデルをダウンロードして、それを$HIPディレクトリに保存します。この例では、Mosiacモデルを使用します。

  2. Copernicusネットワーク内にONNX Inference COPを作成します。

  3. Model File パラメータに、ONNXモデルファイル(この例ではmosaic-9.onnx)のパスを設定します。

  4. Setup Shapes from Model ボタンをクリックします。これによって、そのノード内のModelタブ下にある NameDataTensor Shapes などのほとんどのパラメータに値が設定されます。

  5. ネットワーク内にFile COPを追加します。

  6. そのFile COPの Channel Type パラメータには、そのモデルが必要とする入力タイプ(この例ではRGB)を設定します。

  7. そのFile COPの出力をONNX Inference COPの入力に接続します。

    Note

    入力画像のサイズがそのモデルが必要とする入力サイズに合っていない場合は警告が出ます。 ONNX Inference COPでは、この問題を解決することができます。 Input & Outputタブの Resample Size トグルを有効にして、そのモデルが入力画像に対して必要なサイズ(この例では224, 224)を設定します。

  8. (オプション)モデルの出力が明るすぎた場合、Input & Outputタブの出力側の Brightness Multiplier トグルを有効にして、1/255を設定します。

複数個のテンソルを使って推論を適用する方法

  1. ONNXモデルをダウンロードして、それを$HIPディレクトリに保存します。この例では、Mosiacモデルを使用します。

  2. Copernicusネットワーク内にONNX Inference COPを作成します。

  3. Model File パラメータに、ONNXモデルファイル(この例ではmosaic-9.onnx)のパスを設定します。

  4. Setup Shapes from Model ボタンをクリックします。これによって、そのノード内のModelタブ下にある NameDataTensor Shapes などのほとんどのパラメータに値が設定されます。

  5. ネットワーク内にFile COPを追加します。

  6. そのFile COPの Channel Type パラメータには、そのモデルが必要とする入力タイプ(この例ではRGB)を設定します。

  7. ネットワーク内にChannel Split COPを追加します。

  8. そのFile COPの出力をそのChannel Split COPの入力に接続します。

  9. そのONNX Inference COPのInput & Outputタブで、 Number of Inputs パラメータを使用して、各チャンネルに対して入力を用意します(この例では3に設定します)。

  10. Input & Outputタブの各入力の Type パラメータを、そのチャンネルで必要とするデータタイプ(この例ではMono)に設定します。

  11. 各入力の Name パラメータを設定します。この例では、以下のように設定します:

    • 1番目の入力をinputR

    • 2番目の入力をinputG

    • 3番目の入力をinputBに設定します。

  12. そのChannel Split COPのそれぞれの出力をそのONNX Inference COPのそれぞれの入力に接続します。この例では:

    • redinputR

    • greeninputG

    • blueinputBに接続します。

    Note

    入力画像のサイズがそのモデルが必要とする入力サイズに合っていない場合は警告が出ます。 ONNX Inference COPでは、この問題を解決することができます。 Input & Outputタブの各入力の Resample Size トグルを有効にして、そのモデルが入力画像に対して必要なサイズ(この例では224, 224)を設定します。

  13. そのONNX Inference COPのModelタブの Data パラメータには、Input & Outputタブのすべての入力の名前(この例ではinputR inputG inputB)を設定します。

  14. (オプション)モデルの出力が明るすぎた場合、Input & Outputタブの出力側の Brightness Multiplier トグルを有効にして、1/255を設定します。

Copernicus

基本

次のステップ

  • Slap Comp(仮コンプ)

    Slap Comp(仮コンプ)は、最終合成のおおよその結果をライブで確認するのに役立つ高速な画像制御機能です。

  • OpenFX

    OpenFXとは何か、そして、ネットワーク内でそれを使用する方法について説明します。

  • ハッチング

    Copernicusネットワークでハッチングを使用する方法を説明します。

  • How to ONNX Inferenceの使い方

    ONNX Inferenceノードでモデルを使用して推論を適用する方法について説明しています。

  • CopernicusのTips

    COPを使用する時に役立つテクニックと情報。

高度な概念

  • 法線

    Copernicusネットワークが使用する法線を定義します。

  • 空間

    Copernicusネットワークが使用する空間を定義します。