Skip to main content

LLMを管理する方法

LLMの作成

  1. SERVICEMEプラットフォームにログインします。
  2. 管理」モジュールに切り替えます。
  3. Agent管理 > モデル管理」にアクセスし、モデルカードのリストに入ります。
  4. 新規追加をクリックして、モデル追加ページに入ります。

モデルの追加

  • 名称:モデルの表示名。例:GPT-5
  • 説明:このモデルの簡単な説明。例: GPT-5はOpenAIが2025年8月にリリースした人工知能言語モデルで、GPTシリーズの大規模言語処理能力とoシリーズの深層推論機能を統合し、サブモデルのスケジューリングや複雑なタスク処理が可能です。
  • ベンダー:このモデルサービスを提供するベンダーまたはプラットフォーム。例:Azure硅基流动
  • Provider識別子:モデルのパラメータスタイル。通常はOpenAIを選択します。
  • モデルタイプ:モデルがテキストモデルかEmbeddingモデルなどか
  • モデル能力:モデルが持つ能力タイプ。選択後、Agentでの利用シーンに影響します。
  • 最大Token数:モデルがサポートする最大入力Token数。デフォルト値は10万です。
  • 通貨単位:モデル課金の通貨単位
  • 100万入力Token単価:モデルが入力Tokenを処理する際の料金
  • 100万出力Token単価:モデルが出力Tokenを生成する際の料金
  • 温度:温度設定が高いほどランダム性が増し、Agentがよりクリエイティブな出力を生成する能力が強化されます。一部のモデルでは温度を1に設定する必要があります(例:GPT5)。
  • トップP:top Pを上げるとAgentの語彙範囲が広がり、応答の多様性が向上します。ただし、意味の一貫性が低下する可能性があります。逆にtop Pを下げると論理的一貫性が強化されます。一部のモデルではトップPを1に設定する必要があります(例:GPT5)。

モデルクライアントの追加

モデルを追加した後、このモデルを利用するためにはクライアント(モデル能力を提供するプラットフォームまたはサーバー)を追加する必要があります。

  1. 先ほど追加したモデルに入ります。
  2. 右上の新規Clientボタンをクリックします。

新規Client

  • Provider識別子:モデルのパラメータスタイル。通常はOpenAIを選択します。
  • 名称:このプラットフォームまたはサーバーの名称。例:oai-eastus2
  • デプロイ名:プラットフォーム上でデプロイされたモデル名。後でモデルを呼び出す際にmodelフィールドに渡す値。例:gpt-5-deploymentQwen/Qwen3-VL-235B-A22B-Instruct
  • Base URL:このプラットフォームまたはサーバーのベースアドレス
  • API Key:このモデルを呼び出すために必要なキー
  • 重み:複数のClientがある場合、重みが高いほど呼び出される確率が高くなります
  • 優先度:複数のClientがある場合、優先度が高いほど先に呼び出されます。優先度が同じ場合は主に重みを参照します
  • 有効化:有効化しないと利用できません
  1. 入力が完了したら、保存をクリックしてClientの作成を完了します。
  2. モデル詳細ページで作成したClientリストを確認でき、テストボタンをクリックしてClientが正常にモデルを呼び出せるかテストできます。