RunInference(推論の実行)
|
モデルを使用してローカルおよびリモート推論を実行します。 RunInference
変換は、機械学習(ML)モデルを使用して例のPCollection
に対して推論を実行します。 この変換は、入力例と出力予測を含むPCollection
を出力します。 Apache Beam 2.40.0以降のバージョンで利用可能です。
Beam RunInference APIの詳細については、Beam MLについてのページとRunInference APIパイプラインの例を参照してください。
例
以下の例は、Beam RunInference APIを使用してモデルに基づいて予測を行うパイプラインを作成する方法を示しています。
フレームワーク | 例 |
---|---|
PyTorch | キーなしPyTorchモデル |
PyTorch | キー付きPyTorchモデル |
Sklearn | キーなしSklearnモデル |
Sklearn | キー付きSklearnモデル |
関連する変換
該当なし。
![]() |
最終更新日:2024/10/31
お探しのものはすべて見つかりましたか?
すべて役に立ち、明確でしたか?変更したいことはありますか?お知らせください!