AGIアーキテクチャ設計と検証(SSM×世界モデル×階層RLの統合設計論)
🔍 抽出済み | 技術 | 優先度:🟠 高
シリーズ: AI・IT実践シリーズ
目的(ゴール)
「汎用人工知能(AGI)はどんな部品でできているか」という設計問いに対し、**SSM(状態空間モデル)(記憶・知覚)×世界モデル(World Model)(予測・計画)×階層型強化学習(戦略・戦術分離)**という3モジュール統合アーキテクチャを設計・部分実装・検証する。「変化する環境で過去を忘れず、未来を予測し、抽象目標を達成し続ける」エージェント——Transformerスケールアップとは別軸のAGI実現経路を実証的に探索する。
アクター
- 著者(Manabazu)
- Node3 RTX3060 + RTX4060Ti(CUDA)——知覚・Embeddingストリーム処理(Mamba/LNN)
- Node3 RTX5070Ti(CUDA)——世界モデル学習・JEPAの潜在空間予測
- Node3 RX7900XTX(24GB / ROCm)——階層RL Controller・大容量VRAMで多段計画
- 検証環境: Minecraft(MineRL)/ Isaac Sim / OpenAI Gymnasium
- フレームワーク: DreamerV3・TransformerLens・SAELens・Stable Baselines3
統合アーキテクチャ設計
環境(Minecraft / Isaac Sim)
↓ 視覚・センサーストリーム
[知覚・記憶モジュール: Mamba/SSM]
→ 圧縮状態ベクトル(長期記憶保持)
↓
[世界モデル: JEPA / DreamerV3]
→ 潜在空間で未来状態を予測
→ 「この行動→この結果」を脳内シミュレーション
↓
[階層RLコントローラー: Feudal Network / H-JEPA]
→ Manager: 世界モデルを使いサブゴール設定
→ Worker: 環境への具体的アクション実行
↓
環境へのアクション
検証シナリオ
S1(Phase 1):記憶モジュールの単体検証
UC260506-015のMamba比較実験完了後、Minecraft環境で「24時間前に見たアイテムの場所を記憶しているか」をMambaとTransformerで比較。SSMの記憶優位性を動的環境で確認。
S2(Phase 2):世界モデルの単体検証
DreamerV3をMinecraftに適用。「ダイヤモンド採掘」タスクを「夢の中」(世界モデル内シミュレーション)だけで学習し、実環境での試行回数がどれだけ削減されるかを測定。
S3(Phase 3):階層RLの統合
「夜になる前にシェルターを作れ」という自然言語指示をFeudalNetworkに与え、Manager層が「木を集める→場所を決める→基礎を作る」とサブゴール分解するかを検証。Worker層がManagerの介入なしに地形適応するかを確認。
S4:SSM×世界モデルの統合実験
MambaをエンコーダーとしてDreamerV3の世界モデルに接続する独自キメラアーキテクチャを実装。「圧縮された長期記憶を使ってより遠い未来を予測できるか」を評価。
S5:メカニスティック解釈可能性による内部解析
UC260506-013のMI実験基盤を使い、世界モデルの潜在空間に「物理法則」「空間認識」「時間概念」に対応する特徴量が自然に形成されるかを疎な自己符号化器(SAE)で調査。AGIの知性の萌芽を可視化する試み。
対応リスク
期待成果
- AGIの設計思想を「Transformerのスケールアップ」とは別の軸で実験的に探索
- 3モジュール統合アーキテクチャの設計原則を出版コンテンツとして体系化
- CBFラボが「AGIの一部を手元で動かせる環境」として機能し、先端AI研究との接続点を確立