LLMを管理する方法
LLMの作成
- SERVICEMEプラットフォームにログインします。
- 「管理」モジュールに切り替えます。
- 「Agent管理 > モデル管理」にアクセスし、モデルカードのリストに入ります。
- 新規追加をクリックして、モデル追加ページに入ります。
モデルの追加
- 名称:モデルの表示名。例:
GPT-5 - 説明:このモデルの簡単な説明。例:
GPT-5はOpenAIが2025年8月にリリースした人工知能言語モデルで、GPTシリーズの大規模言語処理能力とoシリーズの深層推論機能を統合し、サブモデルのスケジューリングや複雑なタスク処理が可能です。 - ベンダー:このモデルサービスを提供するベンダーまたはプラットフォーム。例:
Azure、硅基流动 - Provider識別子:モデルのパラメータスタイル。通常はOpenAIを選択します。
- モデルタイプ:モデルがテキストモデルかEmbeddingモデルなどか
- モデル能力:モデルが持つ能力タイプ。選択後、Agentでの利用シーンに影響します。
- 最大Token数:モデルがサポートする最大入力Token数。デフォルト値は10万です。
- 通貨単位:モデル課金の通貨単位
- 100万入力Token単価:モデルが入力Tokenを処理する際の料金
- 100万出力Token単価:モデルが出力Tokenを生成する際の料金
- 温度:温度設定が高いほどランダム性が増し、Agentがよりクリエイティブな出力を生成する能力が強化されます。一部のモデルでは温度を
1に設定する必要があります(例:GPT5)。 - トップP:top Pを上げるとAgentの語彙範囲が広がり、応答の多様性が向上します。ただし、意味の一貫性が低下する可能性があります。逆にtop Pを下げると論理的一貫性が強化されます。一部のモデルではトップPを
1に設定する必要があります(例:GPT5)。
モデルクライアントの追加
モデルを追加した後、このモデルを利用するためにはクライアント(モデル能力を提供するプラットフォームまたはサーバー)を追加する必要があります。
- 先ほど追加したモデルに入ります。
- 右上の新規Clientボタンをクリックします。
新規Client
- Provider識別子:モデルのパラメータスタイル。通常はOpenAIを選択します。
- 名称:このプラットフォームまたはサーバーの名称。例:
oai-eastus2 - デプロイ名:プラットフォーム上でデプロイされたモデル名。後でモデルを呼び出す際にmodelフィールドに渡す値。例:
gpt-5-deployment、Qwen/Qwen3-VL-235B-A22B-Instruct - Base URL:このプラットフォームまたはサーバーのベースアドレス
- API Key:このモデルを呼び出すために必要なキー
- 重み:複数のClientがある場合、重みが高いほど呼び出される確率が高くなります
- 優先度:複数のClientがある場合、優先度が高いほど先に呼び出されます。優先度が同じ場合は主に重みを参照します
- 有効化:有効化しないと利用できません
- 入力が完了したら、保存をクリックしてClientの作成を完了します。
- モデル詳細ページで作成したClientリストを確認でき、テストボタンをクリックしてClientが正常にモデルを呼び出せるかテストできます。