MCPオーケストレーター基盤構築(分散ノードを単一エージェントから統合制御する)

🔍 抽出済み | 技術 | 優先度:🟠 高

シリーズ: AI・IT実践シリーズ


目的(ゴール)

Node2(EVO-X1 / Ubuntu)にMCPサーバーをデプロイし、CBFラボ全ノード(Node1〜4)の計算資源・ログ・モデルファイルを単一エージェントから参照・制御できるオーケストレーション基盤を構築する。物理層の差異(CUDA/ROCm/NPU/Apple Silicon)を抽象化し、Node1のエージェント(Cursor / Claude Code等)からすべてのノードを透過的に操作できる状態を実現する。

アクター

  • 著者(Manabazu)
  • Node2(EVO-X1 Ubuntu)——MCPサーバーホスト・オーケストレーター
  • Node1(Surface Pro 11 M1 / Cline / Claude Code)——MCPクライアント・制御端末
  • Node3(RTX5070Ti / 4060Ti / 3060 + RX7900XTX)——推論ノード
  • Node4(RADEON統合96GB VRAM)——大型モデル推論ノード
  • QNAP NAS——ストレージ・ログ・モデルファイル管理

検証シナリオ

S1:MCP-01プロトタイプ(ログ集約)

Node3の /data/logs をMCP Filesystem Serverで公開。Node1からログを横断検索・AI分析できることを確認。

S2:モデルカタログ統合

Node3の /data/ai_models をMCP経由でインデックス化。Node1から「現在ロード可能なモデル一覧」をリアルタイム取得できる状態を実現。

S3:クロスノード命令実行

Node1から自然言語で「Node3でLlama3-8Bを起動してベンチマークを取れ」と指示 → MCP ServerがNode3へ命令発火 → 結果をNode1に返却するフローを確立。

S4:消費電力モニタリング

Node2がオーケストレーターとして各ノードの消費電力と推論効率をMCP経由で収集。エージェントが自律的に「最もコスト効率の高いノードに処理を振る」判断を行う。

対応リスク

期待成果

  • CBFラボ全体が「単一のAIエージェントが制御するコンピューティング環境」として機能
  • UC260506-003(GPU推論自動比較)・UC260506-004(NAS-RAG)の前提インフラとして機能
  • 将来的な自律エージェントによるラボ自動運用の基盤