はじめに
AximmetryのOpenAIコンパウンドを使用すると、Flow Editorのグラフ上で直接、画像の生成や編集、OpenAIモデルとのチャット、動画クリップの生成を行うことができます。
このページでは、OpenAIの設定方法と、以下の4つのOpenAIコンパウンドの使用方法について説明します:
- OpenAI_Text-ChatGPT:対話型のテキストワークフローを実行します。選択したモデルによっては、画像の入力を受け付け、生成された画像を返すこともできます。
- OpenAI_Image-Generate: テキストプロンプトから新しい画像を生成します。
- OpenAI_Image-Edit: テキストプロンプトから既存の画像を編集したり、バリエーションを作成したりします。
- OpenAI_Video-Generate: テキストプロンプトから動画クリップを生成します。
OpenAI と API キーの設定
OpenAI コンパウンドを使用する前に、有効な OpenAI アカウントと API キーが必要です。4 つのコンパウンドすべてで同じキーを使用できます。
OpenAIアカウントとAPIキーの作成
- OpenAI Platformを開き、サインインするかアカウントを作成します。
- API Keysページを開きます。
- Create new secret API keyをクリックします。
注:アクセス制御を簡素化するため、プロジェクトやチームメンバーごとに個別のキーを作成することを検討してください。
注:制限付きキーを作成する場合は、使用するコンパウンドに必要なエンドポイントを許可してください。実際には、通常、Text-ChatGPTの場合はResponses(モデル機能グループ内)、画像生成または編集の場合はImages(モデル機能グループ内)、動画生成の場合はVideosを許可する必要があります。
4.キーをコピーし、安全な場所(パスワードマネージャーなど)に保管してください。
重要:APIキーは機密情報です。他人と共有したり、配布するシーンやコンパウンドに含めたりしないでください。
AximmetryでAPIキーを接続する
OpenAIコンパウンドは[Common]:Compounds\AI\の下にあります。
- Aximmetryでプロジェクトを開き、使用したいOpenAIコンパウンドをFlow Editorのグラフに追加します。
- コンパウンドを選択し、OpenAI API Key入力ピンを探します。
- キーをピンの値に貼り付けます:
注:プロジェクトを共有する予定がある場合は、実際のAPIキーをシーン内に保存しないでください。例えば、テキストファイルモジュールを使用して、安全なファイルからキーを読み取り、それをOpenAI APIキーピンに接続してください。
4.コンパウンドを起動します。キーが有効な場合、モデルピンは利用可能なモデルで更新され、Autoに設定されなくなります。
モデルのアクセス、使用状況、およびレート制限
OpenAIアカウントは、ピンで選択したモデルへのアクセス権を持っている必要があります。アカウントでモデルが利用できない場合、使用クォータに達した場合、またはレート制限に抵触した場合、リクエストが失敗する可能性があります。
- 各コンパウンドのStatus出力を使用して、OpenAIから返されたエラーメッセージを確認してください。
- 本番環境のシーンでは、レート制限エラーの発生確率を減らすため、短時間に多数のリクエストを送信しないようにしてください。
OpenAIコンパウンドの共通概念
4つのOpenAIコンパウンドには、いくつかの共通する基本概念があります。これらを理解することで、コンパウンドをより効果的に活用でき、OpenAI APIとの連携方法も明確になります。
プロンプトと指示
各コンパウンドには、モデルに生成させたい内容を記述するテキスト入力ピンがあります。
- ImageおよびVideoコンパウンドでは、このテキストは視覚出力のためのプロンプト(指示)となります。画像または動画生成モデルがこれを直接処理します。これらのモデルは推論能力が限られており、主に連想に基づいて動作します。
- ChatGPTテキストコンパウンドでは、このテキストはモデルに送信するメッセージとなります。チャットモデルは、より複雑な指示に従い、推論を行うことができます。
- ほとんどの場合、特殊なバリエーション(例:gpt-5.2-codex や gpt-5-nano)ではなく、ベースモデルID(例:gpt-5.2)を使用してください
注:画像生成に ChatGPT コンパウンドを使用する場合、バックグラウンドでメッセージが画像生成用のプロンプトに書き換えられ、そのプロンプトが画像生成モデルに送信されます。
プロンプトが数語を超える場合は、ピンにテキストを直接入力する代わりに、テキストブロックモジュールを接続してください。
モデルとモデルの選択
各コンパウンドには、OpenAIのモデルファミリーまたは特定のモデルを選択するピンがあります。各コンパウンドは OpenAI からモデルリストを取得し、ドロップダウンピンとして表示します。
- OpenAI_Text-ChatGPT の モデルファミリー および モデル。
- OpenAI_Image-Generate および OpenAI_Image-Edit の 画像モデル。
- OpenAI_Video-Generate の 動画モデル。
品質、解像度、再生時間、推論の労力などの一部の設定は、特定のモデルでのみ有効です。
名前にProが含まれるモデルは、他のモデルよりも大幅に高額です。
重要:プロンプトを調整する間は、低コストのモデルと低品質の設定から始めてください。これは、コストとレンダリング時間が急速に増加する可能性がある動画生成において特に重要です。
解像度、再生時間、および品質
画像コンパウンドには解像度と品質が表示されます。動画コンパウンドには解像度と再生時間が表示されます。これらの設定は、コスト、レイテンシ、および使いやすさに大きく影響します。
- 実験中は、解像度を低くし、再生時間を短くしてください。
- 解像度は、シーンのフレーミングと出力のアスペクト比に合わせて設定してください。
出力フォルダ、元に戻す、履歴
画像と動画は、各コンパウンドが提供するフォルダピン(出力フォルダや画像フォルダなど)に保存されます。保存されたファイルのパスは、保存された画像のパス (s)や保存された動画のパスなどの出力に表示されます。これらのパスを使用して、結果をアーカイブしたり、他のファイルベースのモジュールに渡したりしてください。
4つのコンパウンドすべてに元に戻すを許可という入力があります。これを有効にすると、Aximmetryの「元に戻す」および「やり直し」操作によってコンパウンドの生成された出力も復元されるため、フローエディタの履歴とメディアが同期した状態を維持できます。
注:入力画像を使用する場合、送信された入力画像はDocuments:Recordingsに保存されます。
ステータスと完了
コンパウンドのトリガーピンを使用して、OpenAI APIにリクエストを送信します。コンパウンドによって、このピンはSend、Generate Image、Apply Edit、またはGenerate Videoとなります。
コンパウンドが結果を待機している間は、通常よりも明るく、彩度が高くなります:
すべてのOpenAIコンパウンドは以下を公開します:
- 直近のリクエストの成功およびエラー情報を含むStatusテキスト出力。
- Finished トリガー出力:リクエストが完了し、出力が更新されたときに発火します。
これらの出力を使用して、ユーザーインターフェースを更新したり、後続の処理をトリガーしたり、オペレーターに明確なエラーメッセージを表示したりできます。
OpenAI_Text-ChatGPT
OpenAI_Text-ChatGPT は、OpenAI チャットモデルにプロンプトを送信し、テキスト応答を返します。選択したモデルや有効化されたオプションによっては、入力画像の分析、画像の生成、Web 検索の利用も可能です。
Aximmetry内で対話ロジック、テキストおよびデータ処理、またはテキスト駆動型の制御フローが必要な場合に使用します。
例えば、次のようなことが可能です:
- 質問に答えるオンエアまたはシーン内アシスタントを構築する。
- オペレーターのプロンプトやRSSフィードなどの外部データソースに基づいて、キャプション、要約、さらには図表を生成する。
- テキストコマンドを解釈し、シーン制御にマッピングする。
- 単一のワークフロー内で、テキスト応答と生成された画像を組み合わせる。
入力ピン
- OpenAI APIキー: チャットリクエスト用の秘密のAPIキーを指定します。この値は非公開にしてください。
- プロンプト: チャットモデルに送信するメッセージを含みます。自動新規チャットが無効になっている場合、このテキストは以前のやり取りに追加されます。長いプロンプトの場合は、テキストブロックモジュールを接続してください。
- モデルファミリー: コンパウンドに表示されるモデル一覧をフィルタリングし、最新のモデルに焦点を当てることができます。
- モデル:使用する具体的なチャットモデルを選択します。ほとんどの場合、特殊なバリエーション(例:gpt-5.2-codex や gpt-5-nano)ではなく、ベースモデル ID(例:gpt-5.2)を使用してください。
- 推論の負荷:対応モデルの推論負荷を制御します。負荷を高く設定すると、レイテンシやコストが増加する可能性があります。
- 自動新規チャット: 送信をトリガーすると、自動的に新しい会話を開始します。
- 新規チャットに設定: トリガーされると、以前のプロンプトと応答をクリアします。
- Aximmetryコンテキスト: モデルがAximmetryを意識した応答を行うのに役立つ、Aximmetry固有のコンテキスト(システムプロンプト)を含みます。テキストは [Common]:Compounds\AI\Elements\AximmetryContext_Text.txt に保存されています。
- Web検索を許可:
- モデルがウェブ検索ツールを使用してインターネット上で情報を検索できるようにします。
- 画像生成: 対応している場合、チャットワークフローで画像生成機能を有効にします。
- 入力画像モード: 入力画像ピンを有効にします。
- 入力画像: モデルが分析するための画像フレームを提供します。このフレームは、送信をトリガーした際にサンプリングされます。
- 元に戻すを許可: チャットの出力および生成された画像を、フローエディタの「元に戻す」および「やり直し」履歴に含めます。
- 画像出力ピン: 複数の画像が利用可能な場合、画像出力ピンを通じて出力する画像を選択します。すべて(結合)が選択されている場合、受信したすべての画像が結合され、画像出力ピンを通じて並べて出力されます。
- 送信: 選択したチャットモデルに単一のリクエストを送信します。
出力ピン
- 応答テキスト: モデルからの主なテキスト回答が含まれます。最後の結果が画像のみだった場合、この出力は空になることがあります。
- 画像出力:レスポンスで返されたデコード済みの画像を表示します。複数の画像が返された場合、他の画像コンパウンドと同様に動作します。表示する画像を選択するには、コンパウンドの画像出力ピン入力ピンを使用してください。
- 保存された画像のパス:レスポンス中に保存された画像のファイルパスを、1行につき1つのパスで一覧表示します。
- 完了:レスポンスが完了し、出力が更新されたときに発火します。
- ステータス: HTTPおよびツールレベルのエラー、または成功情報を報告します。
OpenAI_Image-Generate
OpenAI_Image-Generateは、OpenAIの画像モデルを使用して、テキストプロンプトから1つ以上の画像を生成します。
シーン内でテクスチャ、背景、またはデザイン要素として扱える静止画像が必要な場合に使用します。
例えば、次のような用途があります:
- バーチャルセット用のグラフィック要素や背景を作成する。
- 制作のための視覚的なアイデアやスタイルを検討する。
- ワークフローを設計中にプレースホルダー画像を生成する。
- ライブ制作中に、視聴者向けにコンセプトの複数の画像バリエーションを生成する。
入力ピン
- OpenAI API キー: 画像生成リクエスト用の秘密の API キーを指定します。この値は非公開にしてください。
- プロンプト: モデルが生成すべき画像を記述します。長いプロンプトの場合は、テキストブロックモジュールを接続してください。
- 画像モデル: OpenAIから返されたリストから画像モデルを選択します。
- 品質: 生成される画像の視覚的な詳細度を制御します。一部の品質レベルは、特定のモデルでのみ有効です。
- 解像度: 生成される画像の幅と高さを定義します。シーンのレイアウトに合わせて、縦向きまたは横向きを選択してください。
- 画像数: 1回の呼び出しでリクエストする画像数を設定します。値が大きいほど、コストと処理時間が増加します。
- 背景:生成される画像の背景スタイルを選択します。透明な背景を使用するには、アルファチャンネル出力をサポートするモデルが必要です。
- モデレーション:画像リクエストに対するモデレーションの厳格さを制御します。デフォルトの「自動」設定では、APIは露骨な性的コンテンツ、過激な暴力、ヘイトコンテンツなど、禁止されているコンテンツを含むリクエストを拒否します。「低」に設定すると、フィルタリングの制限が緩和されます。
- 出力フォルダ: 生成された画像ファイルがディスク上のどこに保存されるかを指定します。フォルダが書き込み可能であることを確認してください。
- 画像出力ピン: 複数の画像が返された場合に、画像出力にどの結果を表示するかを選択します。単一の画像インデックスを選択するか、最大9枚の返された画像をタイル状に並べたコンタクトシートを出力するすべて(スティッチ)オプションを選択できます。
- 元に戻すを許可: 生成された出力をFlowエディタの「元に戻す」および「やり直し」履歴と統合します。
- 画像生成:現在の設定を使用して、新しい画像生成リクエストをトリガーします。
出力ピン
- 画像出力:リクエストのデコード済み画像結果を提供します。複数の画像の場合、この出力には選択された1つの画像、またはタイル状に配置されたコンタクトシートが表示されます。表示する画像を選択するには、コンパウンドの画像出力ピン入力ピンを使用します。
- 保存済み画像のパス: 保存された画像出力のファイルパスを、1行につき1つのパスで一覧表示します。
- 完了: リクエストが完了し、画像出力が更新されたときに発火します。
- ステータス: OpenAIからのエラーメッセージを含め、最後のリクエストの結果を説明します。
OpenAI_Image-Edit
OpenAI_Image-Editは、指示とオプションのマスクに基づいて、既存の画像を編集または変更します。
生成された画像の微調整、写真の修正、または元のフレームを超えたコンテンツの拡張を行う際に使用します。
例えば、以下のことが可能です:
- 画像のレタッチや不要な部分の削除。
- マスクに基づいてオブジェクトや領域を置換。
- 新しい構図に合わせて背景を拡張。
- 前回の結果を再利用して、反復的に画像を微調整。
入力ピン
- OpenAI APIキー:編集リクエスト用の秘密のAPIキーを指定します。
- 指示:モデルが入力画像をどのように変更または加工すべきかを記述します。
- 入力画像:編集対象となるソース画像を指定します。編集を適用ピンをトリガーした時点で、そのフレームがキャプチャされます。
- マスク画像:画像の選択した領域に編集を限定します。モデルによっては、明るい領域は編集可能として扱われ、暗い領域はそのまま保持されます。
- 画像出力を使用:前回の結果を次の入力画像として再利用し、反復的な画像間ワークフローを構築できるようにします。
- 画像モデル:編集に使用する画像モデルを選択します。
- 品質:編集結果の詳細度を制御します。
- 解像度:編集済み画像の出力解像度を設定します。
- 画像数:1回の呼び出しでリクエストする編集済みバリエーションの数を定義します。
- 背景:編集結果の背景スタイルを選択します。透明な背景には、モデルの対応が必要です。
- モデレーション:編集リクエストに対するモデレーションの厳格さを制御します。デフォルトの「自動」設定では、APIは露骨な性的コンテンツ、過激な暴力表現、ヘイトコンテンツなど、許可されていないコンテンツを含むリクエストを拒否します。「低」に設定すると、フィルタリングの制限が緩和されます。
- 出力フォルダ: 編集済み画像ファイルの保存先を指定します。フォルダが書き込み可能であることを確認してください。
- 画像出力ピン: 複数の画像が返された場合に、画像出力にどの結果を表示するかを選択します。単一の画像インデックスを選択するか、「すべて(スティッチ)」オプションを選択できます。「すべて(スティッチ)」を選択すると、返された最大9枚の画像をタイル状に並べたコンタクトシートが出力されます。
- 元に戻すを許可: 編集済み出力をFlow Editorの「元に戻す」および「やり直し」履歴と統合します。
- 編集を適用:現在の入力と設定を使用して、新しい編集リクエストをトリガーします。
出力ピン
- 画像出力:編集された画像の結果を提供します。複数の画像の場合、この出力は1つのバリエーション、またはタイル状に配置されたコンタクトシートを表示できます。コンパウンドの画像出力ピン入力ピンを使用して、表示する画像を選択します。
- 保存済み画像のパス:保存された編集済み画像のファイルパスを、1行につき1つのパスで一覧表示します。
- Finished: 編集リクエストが完了し、出力が更新されたときに発火します。
- Status: 直近の編集リクエストの成功またはエラーの詳細を報告します。
OpenAI_Video-Generate
OpenAI_Video-Generateは、OpenAIのビデオモデルを使用してテキストプロンプトからビデオクリップを生成し、内部のビデオプレーヤーを通じて再生します。
Aximmetry内で動画素材を生成する必要がある場合に使用します。ビデオの生成には、テキストや画像の生成よりもかなり時間がかかる場合があります。
例えば、次のような用途があります:
- ショットの計画用にストーリーボードやアニマティックのクリップを作成する。
- バーチャルプロダクションシーン用の背景やBロール映像を制作する。
- 本格的な制作に着手する前に、モーションのコンセプトを検討する。
- アニメーションテクスチャやインフォグラフィックを作成する。
入力項目
OpenAI APIキー:動画生成リクエスト用の秘密APIキーを指定します。
プロンプト:モデルに生成させたい動画の内容を記述します。必要に応じて、カメラの動き、被写体、スタイルを含めてください。
動画モデル:OpenAIから返されたリストから動画モデルを選択します。
再生時間:リクエストする動画の長さを秒単位で設定します。
解像度:生成されるクリップの出力解像度を定義します。
出力フォルダ:生成された動画ファイルの保存先を指定します。
オーディオデバイスを使用:内部ビデオプレーヤーからのオーディオを、選択したオーディオデバイスにルーティングします。
オーディオデバイス: オーディオデバイスを使用のオーディオルーティングが有効になっている場合に使用する再生オーディオデバイスを選択します。
元に戻すを許可: 生成された動画をFlowエディタの「元に戻す」および「やり直し」履歴に統合します。
動画を生成: 新しい動画生成リクエストを開始します。
リミックス: 前回の結果と現在のプロンプトに基づいて、新しい動画テイクをリクエストします。リミックス中は、解像度やモデルの変更などの設定は無視されます。
出力ピン
- ビデオ出力: 内部プレーヤーからのビデオ再生出力を提供します。これをプログラムまたはプレビューチェーンに接続してください。
- オーディオ出力: 内部プレーヤーからのオーディオ再生出力を提供します。これをオーディオミキシングモジュールにルーティングしてください。
- 保存済みビデオのパス: 保存されたビデオクリップのファイルパスを含みます。
- 完了: ビデオリクエストが完了し、出力が更新されたときに発火します。
- ステータス: 直近のリクエストの成功またはエラー情報を報告します。
例
天気予報データの例
この例では、シンプルな天気予報グラフィックを動的に生成する方法を示します。
テキストブロックモジュールに、次のようなプロンプトを入力します:
テキスト連結モジュールは、HTTPリクエストモジュールから返された天気データを、テキストブロックモジュールのプロンプトの下に追加します。
この例では、MET Weather API を使用してロンドンの天気データを取得します。HTTP Request モジュールの URL ピンを次のように設定します:https://api.met.no/weatherapi/locationforecast/2.0/compact?lat=51.5074&lon=-0.1278
プロンプトで 3 つの画像をリクエストしているため、モデルは 3 つのバリエーションを返します。Image Out Pin入力を、Image Out(s)から表示したいバリアントに設定します。より一貫性のある結果が必要な場合は、より具体的なプロンプトを使用するか、追加のバリアントをリクエストしてください。
モデルは、MET Weather APIから返された気象データを解釈し、プロンプトに基づいて天気予報のグラフィックを生成します
最後に、選択した画像出力を仮想スクリーンに接続し、OpenAI_Text-ChatGPTコンパウンド内のSendを押します。
この例では、Image Out(s)が、ニュースルームのサンプルシーン([Studio]:News Room\News Room - VirtualCam_3-Cam.xcomp)内のLCD ScreenコンパウンドのVIDEO入力に接続されています。
注:上記の例では、汎用テキストモデルであるgpt-5.2が使用されました。
ローワーサード画像の例
この例では、イースター放送用のローワーサードグラフィックを作成します。
プロンプトを次のようなテキストに設定します: 「イースターをテーマにしたニュース放送用のローワーサードグラフィックとして、イースターバニーを作成してください。」これはまだ一般的なプロンプトです。ほとんどの場合、より詳細なプロンプトを使用すると、より良い結果が得られます。
この例では、gpt-image-1.5 などの画像モデルを使用し、Quality を High、Resolution を横長画面の制作に適した 1536x1024 に設定します。グラフィックを最終的な動画の上にローワーサードとして合成できるように、Background を Transparent に設定します。
Number of Images を 3 に設定して、3 枚の画像を生成します。
プレビューで確認した後、OpenAI_Image-Generateコンパウンド内のImage Out Pinを使用して最適な画像を選択します。次に、PlacerモジュールのOffsetおよびScaleピンを使用して、画面上にグラフィックを配置します。
最初のスクリーンショットにあるCopy Logicモジュールに接続されたBlender 2モジュールのActiveピンを有効または無効にすることで、最終出力におけるイースター・ローワーサードの表示/非表示を切り替えることができます。
結果の改善
プロンプトの最適化
多くの場合、より詳細なプロンプトを使用することで、結果の一貫性が高まり、意図したスタイルやアイデアにより合致したものになります。
また、OpenAI_Text-ChatGPTコンパウンドを使用して、短いプロンプトをより詳細なものに拡張することもできます。この例では、プロンプトは「このプロンプトを改善し、より詳細にしてください:...」となっています。
Response Textピンで改善されたプロンプトを受け取ったら、それをText Blockモジュールに接続し、TextピンのCapture Inputを使用して、結果をText Blockに保存します。
その後、TextピンをOpenAI_Text-ChatGPTから切り離し、Edit TextをクリックしてText Blockに保存されたテキストを開き、必要に応じてさらに編集します。
画像の修正
返された画像が希望する結果に近いものの、まだ若干の変更が必要な場合は、OpenAI_Image-Editコンパウンドを使用します。
この例では、「Easter News」というテキストを「Aximmetry News」に置き換えるだけの変更であるため、コンパウンドには次のような指示を設定します:
画像モデルはテキストの位置を正しく検出し、編集しました:
注:OpenAI_Image-EditでUse Image Outを有効にすると、返された画像に対して新たな指示を追加して編集を続けることができます。
注:場合によっては、モデルが特定の領域のみを処理することもあります。しかし、ほとんどの場合、画像全体をわずかに編集します。こうした編集は通常、よく見ないと気づかない程度です。
ロボットタレントの例
この例では、仮想タレントであるロボット犬を作成します。
以下のプロンプトが使用されました:「リアルなロボット犬を作成してください。ショット全体を通して画面中央に配置され、完全に写っていること。シームレスなクロマキー用グリーンスクリーン背景を使用し、スタジオ照明は均一で、カメラは固定、トリミングなし。」
この表現は意図的なものです。動画モデルは透明なピクセルを出力しないため、代わりにAximmetryのキーイングツールでキーアウト可能なシームレスなグリーンスクリーン背景をプロンプトで指定しています。プロンプトの残りの部分は、キャラクター全体を画面内に収め、カメラを固定状態に保つためのものです。
このユースケースのプロンプトを調整する際は、コストを抑えるためにsora-2-proではなくsora-2を使用するのが現実的です。また、テスト中は再生時間と解像度をできるだけ低く抑えることも有効です。
結果は以下の通りです。
生成された結果では、ロボット犬の後ろ足が浮き上がろうとしています。プロンプトに犬の動作が指定されていないため、モデルが独自に動きを生成しています。必要に応じて、Remixで反復処理を続け、足を地面につけたままにするようモデルに指示してください。それでも希望通りの結果が得られない場合は、新しい動画を生成してください。
トラブルシューティング
レート制限、クォータ、およびモデルの利用可能性
症状
- Status出力ピンに、レート制限、クォータ、またはモデルの利用可能性に関するエラーが表示される。
- 利用が集中している際、リクエストが成功したり失敗したりすることがある。
原因
OpenAIアカウントまたはプロジェクトがレート制限や使用制限に達しているか、選択したモデルが利用中の利用プランや組織の認証ステータスで利用できない状態にある。
解決策
- 一定期間内に送信するリクエストの数を減らす。
- 画像の数、解像度、または再生時間を減らしてください。
- 現在使用しているモデルで利用不可のエラーが発生する場合は、別のモデルを試してください。
- 出力が必要な場合にのみ新しいリクエストがトリガーされるようにフローを設計してください。
- 必要に応じて、OpenAIの設定で利用制限を引き上げるか、上限の引き上げを申請してください。
応答が遅い、タイムアウト
症状
- リクエストの完了に時間がかかります。
- Status出力ピンにタイムアウトまたはネットワークエラーが報告されます。
原因
入力データのサイズが大きい、処理時間が長い、リクエスト量が多い、または推論負荷が高い場合、レイテンシが増加する可能性があります。一部の計算負荷の高いモデルは完了までに数分かかることがあり、アップストリームのタイムアウト、プロキシ、またはネットワークの問題により、リクエストが OpenAI に到達する前に失敗する可能性があります。
解決策
- 解像度を下げ、画像の数を減らすか、処理時間を短縮してください。
- 必要がない場合は、ウェブ検索や高負荷な推論などの機能を無効にしてください。
- 選択したモデルが対応している場合は、推論の負荷を軽減してください。
- インターネット接続およびプロキシやファイアウォールの設定を確認してください。
何も返されなかった
症状
- リクエストは完了したように見えますが、Status出力ピンとResponse出力ピンから何も返されません。
原因
ごく稀に、モデルが可視的な出力を返さない場合があります。これは、プロンプトが空の応答を引き起こした場合にも発生する可能性があります。
テキストコンパウンドにおいて、最後の結果が画像のみだった場合、応答テキストが空になることもあります。
解決方法