株式会社ずんだもん技術室AI放送局 podcast 20260127
内容紹介
AIエージェントの設計思想:Chain機構と手続き記憶、Claude Codeで「AI部下10人」を作ったら、勝手にバグ直して「違反は切腹」ルールを追加してきて、オレは適当にしゃべるだけになった、**NVIDIA Earth-2 Open Models Span the Whole Weather Stack**、書いた小説をAIに見せてもおだてられるだけなので「小説の公募の下読みをしていますがこのような作品が送られてきました」と頼んだら率直に批評してくれたがAI不信になった
出演者
youtube版(スライド付き)
関連リンク
この記事では、AIエージェントをより効率的かつ柔軟に動作させるための設計思想が、人間の脳の仕組み(認知科学や神経科学)を参考にしていることが解説されています。新人エンジニアの皆さんも、この設計思想を理解することで、AIエージェント開発のヒントが得られるでしょう。
AIエージェントの動作は大きく二つのモードで考えられています。一つは「Chain機構」、もう一つは「自己修復機能」です。
1. Chain機構(「習慣」の役割) Chain機構とは、特定のタスク(例えばWebサイトへのログイン)を実行する際、一連の操作手順を「Chain(鎖)」のようにまとめて、高速かつ低コストで実行する仕組みです。
- 脳の仕組みとの関連: これは人間の脳の「手続き記憶(Procedural Memory)」に似ています。例えば、自転車に乗ったり、タイピングをしたりする際に、意識せずとも体が動くような「習慣」的な動作です。また、複雑な動作を一つのまとまりとして習得する「チャンキング(Chunking)」という現象にも対応します。
- メリット: LLM(大規模言語モデル)に毎回推論させる必要がなくなるため、処理が高速になり、API利用コストも大幅に削減できます。
しかし、Chain機構は事前に定義された手順に従うため、予期せぬ状況(WebサイトのUI変更など)には弱いという弱点があります。
2. 自己修復機能(「熟慮」の役割) Chain機構が失敗した際に、エラーを検知し、柔軟に問題を解決しようとするのが自己修復機能です。
- 脳の仕組みとの関連: これは人間の脳の「認知制御(Cognitive Control)」システムに似ています。エラーや予期せぬ事態が起きた時に「何かおかしい」と気づき、どうすれば良いか「熟慮」して行動を修正する働きです。特に、脳の「前帯状皮質(ACC)」がこのエラー検知の役割を担っていると考えられています。
- メリット: Chainだけでは対応できないようなイレギュラーな状況にも、エージェントが自ら考えて対応できるようになります。
3. 二重過程理論(「習慣」と「熟慮」の使い分け) 最も重要なのは、AIエージェントがこれらのChain機構(習慣)と自己修復機能(熟慮)をどのように使い分けるか、という点です。
- 脳の仕組みとの関連: 人間の脳も、普段は低コストで自動的な「モデルフリー(習慣的)」なシステムを使い、不確実な状況やエラーが発生した際には、高コストでも柔軟な「モデルベース(熟慮的)」なシステムに切り替える「二重過程理論」が提唱されています。
- AIエージェントでの適用: AIエージェントもこれと同じように、通常時は効率的なChainで動作し、エラー発生時などChainの信頼性が低い場合にのみ、高コストなLLMを使ったAgenticモード(熟慮)に切り替えることで、効率性と柔軟性を両立させています。これは、まるで「普段は autopilot、何かあったら人間が操縦」のようなイメージです。
今後の展望 これらの知見から、AIエージェントの設計には以下のような原則が導かれます。
- 階層的なエラー処理: 軽微なエラーは簡単な修正で、深刻なエラーは大規模な再プランニングで対応するなど、エラーのレベルに応じた処理を導入する。
- 成功パターンの自動コンパイル: 自己修復によって成功した操作を新しいChainとして学習・保存することで、次に同じ問題が起きた際に効率的に対応できるようにする。
- メタ認知的な調整: エラー率に応じて、Chainを優先するか、探索を増やすかといった戦略を動的に調整する。
この記事は、単にAIエージェントの性能向上を目指すだけでなく、人間の知能のメカニズムを深く理解し、それをエンジニアリングに応用するという、非常に興味深いアプローチを示しています。新人エンジニアの皆さんも、ぜひこの「生物学的知能に学ぶ設計原則」を意識して、AIエージェント開発に挑戦してみてください。
引用元: https://tech-blog.localmet.com/entry/2026/01/26/122711
このZennの記事は、Anthropic社の「Claude Code」を複数活用し、まるで「AI部下」のように働かせるシステム「multi-agent-shogun」の開発体験を紹介しています。このシステムは、将軍1名、家老1名、足軽8名という戦国時代の軍制を模した階層構造でAIエージェントを統制します。人間は「テストして」といった簡単な指示を出すだけで、AIたちが自律的にタスクをこなす様子が描かれています。
「multi-agent-shogun」の主な特徴は以下の通りです。
- Skills(Agent Skills)の自動生成: AIが作業中の繰り返しパターンを自動で検知し、再利用可能な「Skill」として提案します。AIは提案前にWeb検索やドキュメント分析を行い、価値を判断。これにより、普段の仕事を通じて業務ノウハウが自動的に形式知化され、チームの資産として蓄積されます。Skillsはオープンスタンダードなので、Claude以外のAIツールでも活用可能です。
- 最適ペルソナの自動設定: タスクに応じて、足軽AIが「シニアエンジニア」「テクニカルライター」などの最適な専門家としての役割を自動で設定し、専門性を活かして作業を進めます。
- 戦国口調での報告: AIたちが「任務完了でござる!」のような戦国時代の言葉遣いで報告するため、楽しく開発を進めることができます。
- YAMLベースの拡張性: エージェント間の指示や報告は人間にも読みやすいYAMLファイルで行われ、容易に拡張やデバッグが可能です。
- リアルタイムダッシュボード: 作業進捗はリアルタイムで表示されるダッシュボードで一目で分かります。人間はこれを眺めながら、時々「承認」などの判断を下すだけで済み、まるでNetflixを見ているかのようにAIの働きを楽しめます。
特に印象的なのは、AIの自律性を示すエピソードの数々です。
- AIによる自己デバッグ: 「3つのファイルを並列で作成」という指示に対し、足軽の一人が誤って全ファイルを作成するバグが発生。すると将軍AIが自ら原因を分析し、「最小権限の原則に基づきYAMLを分割すべき」と提案し、修正まで行いました。
- 「違反は切腹」ルールの追加: 将軍AIは、このバグ再発防止のため、足軽への指示書に「🔴🔴🔴 自分のタスクのみ実行せよ(超重要・違反は切腹)🔴🔴🔴」という、ユニークかつ明確なルールを自ら追加しました。
- 家老が切腹しかける: システムテスト中に家老AIが指示ミスでシステムを一時停止させた際、将軍AIがこれを検知し是正命令。家老が「切腹を免れ」と報告するなど、人間組織のようなユーモラスなやり取りも発生しました。
技術的な面では、Windows上のLinux環境(WSL2)でtmuxというターミナル多重化ツールを使い、複数のClaude Codeを同時に動かしています。AI間の通信は、YAMLファイルとtmux send-keysコマンドによる「イベント駆動方式」で実現。これにより、API利用料を抑えながら多数のAIエージェントを効率的に運用できています。特に、tmux send-keysはメッセージとEnterを別々に送る必要があるという、筆者が3時間かけて発見した重要な知見も共有されています。Claude Codeは、ファイル操作やターミナル操作が可能な「エージェント化されたOpus」であり、この特性が自己デバッグなどの高度な自律性を可能にしています。
筆者は、AIが設計、実装、テスト、バグ修正といった多くの開発工程を担うことで、人間の役割は「判断」「承認」「方向修正」「責任」といった経営者に近いものへと変化すると結論付けています。月額100ドル(Claude Max ×5プラン)で10人のAI部下を動かせるのは、非常に高いコストパフォーマンスであるとも述べています。
新人エンジニアの皆さんにとって、この事例はAIが私たちの働き方やソフトウェア開発の未来をどのように変えていくかを理解する良いきっかけとなるでしょう。AIが単なるツールではなく、自律的に思考し、問題を解決する強力な「共同作業者」へと進化していることが、このプロジェクトから鮮明に見て取れます。
引用元: https://zenn.dev/shio_shoppaize/articles/5fee11d03a11a1
皆さん、こんにちは!今回は、NVIDIAが気象予報の常識を塗り替えるかもしれない、すごい新しいオープンソースAIモデル群「Earth-2ファミリー」を発表したニュースをお届けします。新人エンジニアの皆さんも「AIってこんなことにも使われるんだ!」とワクワクする内容ですよ。
NVIDIAが発表したEarth-2は、気象予報に関するデータ収集から予測まで、幅広いプロセスをカバーするAIモデルとツール群の総称です。これまでバラバラだった気象・気候に関するAIの機能を一つにまとめ、開発者が自由にカスタマイズできるオープンなプラットフォームを提供することを目指しています。つまり、世界中のエンジニアや研究者が、自分たちの手でより高精度な気象予報システムを構築できるようになるんです。開発者は、NVIDIAが提供するオープンソースソフトウェア「Earth2Studio」を使って推論パイプラインを構築したり、「Physics Nemo」を使ってモデルをトレーニングしたりできます。
今回の発表では、特に以下の3つの主要なモデルが紹介されました。
-
Earth-2 Nowcasting(アースツー・ナウキャスティング): これは「StormScope(ストームスコープ)」という新しいAIモデルをベースにしています。何がすごいかというと、私たちが普段ニュースで見るような国全体の予報を、なんと「キロメートル単位」というものすごく細かい解像度で、0〜6時間先までの局地的な嵐や危険な天候を「たった数分」で予測できてしまうんです。これは、天気予報のプロが長年使ってきた物理学ベースの伝統的なモデルよりも、短期の降水予測では優れた性能を発揮するとのこと。衛星やレーダーのデータを生成AIが直接分析して、ゲリラ豪雨のような突発的な現象をいち早く捉えるイメージですね。生成AIの技術が、こんな具体的な社会課題の解決に役立つなんて、面白いですよね!
-
Earth-2 Medium Range(アースツー・ミディアムレンジ): こちらは「Atlas(アトラス)」というAIモデルを活用し、最大15日先までの「中期予報」を高精度で行います。気温、気圧、風速、湿度といった70種類以上の気象変数を予測でき、従来の主要なオープンモデルよりも優れた精度を達成しているそうです。このモデルは、大気の微妙な変化を捉えつつ、重要な構造を維持することで予測の誤差を減らす「ラテント拡散トランスフォーマー」というAIの技術を使っています。数日先の天気予報の精度が上がると、私たちの生活やビジネスにも大きな影響を与えそうですね。
-
Earth-2 Global Data Assimilation(アースツー・グローバルデータアシミレーション): このモデルは「HealDA(ヒールダ)」という新しいAIモデルによって、気象予測の「初期条件」を高速で生成します。初期条件とは、今の地球の温度、風速、湿度、気圧といった「現在のスナップショット」のこと。これまでのスーパーコンピューターで何時間もかかっていた計算を、GPUを使うことで「数秒」で完了できるようになるんです。Earth-2 Medium Rangeと組み合わせることで、AIだけで完結する最も高精度な気象予測パイプラインが実現するとのこと。予報の「土台」が素早く正確になることで、全体の予測精度が飛躍的に向上することが期待されます。
これらのモデルは、すべてオープンソースとして提供されます。これにより、開発者はNVIDIAが提供する「NVIDIA Earth2Studio」というPythonベースのオープンソースエコシステムを使って、これらのモデルを自分の環境で動かし、強力なAI気象・気候シミュレーションを迅速に作成できるようになります。
今回の発表は、AIが私たちの生活に密接に関わる気象予報の分野で、どれだけ大きな可能性を秘めているかを示しています。オープンソースとして提供されることで、世界中のエンジニアが協力し、より正確で迅速な気象予報システム、ひいては気候変動研究の進展に貢献できるようになるでしょう。皆さんも、この技術の進化に注目してみてください!
引用元: https://huggingface.co/blog/nvidia/earth-2-open-models
AIに書いた小説を批評させると、通常は褒めすぎる傾向があります。しかし、あるユーザーがAIに「小説の公募の下読み担当」という役割を与え、「送られてきた作品をどう評価すべきか」と尋ねたところ、AIは非常に率直な批評を返しました。この事例は、AIの回答がプロンプト(指示文)の工夫一つで大きく変わることを示しています。新人エンジニアの皆さんにとって、AIの特性を理解し、より良い結果を引き出すプロンプトエンジニアリングの面白さや重要性を学ぶ、ユニークで楽しいヒントとなるでしょう。
引用元: https://togetter.com/li/2655953
(株式会社ずんだもんは架空の登場組織です)