MCPオーケストレーター基盤構築(分散ノードを単一エージェントから統合制御する)
🔍 抽出済み | 技術 | 優先度:🟠 高
シリーズ: AI・IT実践シリーズ
目的(ゴール)
Node2(EVO-X1 / Ubuntu)にMCPサーバーをデプロイし、CBFラボ全ノード(Node1〜4)の計算資源・ログ・モデルファイルを単一エージェントから参照・制御できるオーケストレーション基盤を構築する。物理層の差異(CUDA/ROCm/NPU/Apple Silicon)を抽象化し、Node1のエージェント(Cursor / Claude Code等)からすべてのノードを透過的に操作できる状態を実現する。
アクター
- 著者(Manabazu)
- Node2(EVO-X1 Ubuntu)——MCPサーバーホスト・オーケストレーター
- Node1(Surface Pro 11 M1 / Cline / Claude Code)——MCPクライアント・制御端末
- Node3(RTX5070Ti / 4060Ti / 3060 + RX7900XTX)——推論ノード
- Node4(RADEON統合96GB VRAM)——大型モデル推論ノード
- QNAP NAS——ストレージ・ログ・モデルファイル管理
検証シナリオ
S1:MCP-01プロトタイプ(ログ集約)
Node3の /data/logs をMCP Filesystem Serverで公開。Node1からログを横断検索・AI分析できることを確認。
S2:モデルカタログ統合
Node3の /data/ai_models をMCP経由でインデックス化。Node1から「現在ロード可能なモデル一覧」をリアルタイム取得できる状態を実現。
S3:クロスノード命令実行
Node1から自然言語で「Node3でLlama3-8Bを起動してベンチマークを取れ」と指示 → MCP ServerがNode3へ命令発火 → 結果をNode1に返却するフローを確立。
S4:消費電力モニタリング
Node2がオーケストレーターとして各ノードの消費電力と推論効率をMCP経由で収集。エージェントが自律的に「最もコスト効率の高いノードに処理を振る」判断を行う。
対応リスク
期待成果
- CBFラボ全体が「単一のAIエージェントが制御するコンピューティング環境」として機能
- UC260506-003(GPU推論自動比較)・UC260506-004(NAS-RAG)の前提インフラとして機能
- 将来的な自律エージェントによるラボ自動運用の基盤