私立ずんだもん女学園放送部 podcast 20250815
内容紹介
A Comprehensive Survey of Self-Evolving AI Agents: A New Paradigm Bridging Foundation Models and Lifelong Agentic Systems、Claude Codeでできることを一通りまとめてみた、Dynamo 0.4 Delivers 4x Faster Performance, SLO-Based Autoscaling, and Real-Time Observability、お盆なので精霊馬に跨ってこの世に戻ってくる猫さんの画像をchatGPTに頼んだら想像超えてこうなった
出演者
関連リンク
最近、AIエージェントが注目を集めていますが、これまでの多くのエージェントは、一度設定されると環境の変化に適応するのが苦手でした。これは、私たちが生きる現実の世界が常に変化しているため、大きな課題となっていました。
そんな中で、新たな研究の方向性として「自己進化型AIエージェント」が登場しました。これは、AIが現実世界とのやり取り(インタラクションデータ)や、環境からのフィードバックを通じて、まるで生き物のように自ら学習し、進化していくことを目指すものです。最新の基盤モデル(例えば、大規模言語モデルのような、たくさんのデータで事前に学習された高性能なAIの土台)が持つ静的な能力と、AIが一生涯にわたって状況に適応し続ける「ライフロングなエージェントシステム」に必要な継続的な柔軟性を橋渡しする役割を担います。
この論文は、自己進化型AIエージェントに関するこれまで研究されてきた技術を幅広くレビューしています。まず、自己進化するエージェントの設計の核となる「フィードバックループ」を、「システム入力(System Inputs)」、「エージェントシステム(Agent System)」、「環境(Environment)」、「最適化装置(Optimisers)」という4つの主要な要素からなる統一的な枠組みで整理しています。この枠組みを使うことで、様々な進化戦略を理解し、比較することができます。
論文では、この枠組みに基づいて、エージェントシステムの様々な部分を対象とした多様な自己進化技術が体系的に紹介されています。また、医学、プログラミング、金融といった専門分野で、それぞれの制約に合わせて開発された進化戦略についても掘り下げて分析しています。さらに、自己進化型AIエージェントの評価方法、安全性、そして倫理的な考慮事項についても重要な議論がなされています。
この論文は、AIエージェントの研究者や開発者(私たちのようなエンジニアも含まれますね)が、自己進化型AIエージェントについて体系的に理解するための貴重な情報源となります。これによって、将来的にはもっと柔軟で、自律的に動き、常に学び続けるAIエージェントが開発される基盤が築かれると期待されています。
引用元: https://arxiv.org/abs/2508.07407
この記事は、Anthropic社が開発したCLI(コマンドラインインターフェース)ベースのAIコーディングエージェント「Claude Code」について、その概要と主要な機能を紹介しています。エンジニアが日々の開発でAIを効果的に活用するためのヒントが盛り込まれており、特に新人エンジニアにも分かりやすい内容です。
Claude Codeは、安全性とコーディング能力に強みを持つ大規模言語モデル(LLM)「Claude」を基盤としたツールです。2025年5月に一般公開され、プログラマーに人気のテキストエディターであるVS Codeへの対応でさらに注目を集めました。
主な特徴として、人間が使う自然な言葉(自然言語)での指示から、高品質なコードを生成できる点が挙げられます。例えば、「簡単なWebサイトを作ってほしい」といった指示を与えるだけで、Claude Codeが自動的に「ToDoリスト」を作成し、プロジェクトのセットアップからコード生成までを自律的に進めることができます。
また、開発でよく使うGitHubとの連携も強力です。GitHub CLIツールと組み合わせることで、作成したコードのコミットやPull Request(プルリクエスト:コードの変更を提案する機能)の作成を自動で行うことが可能です。既存のIssue(課題やタスク)をClaude Codeに指示すれば、その内容に沿った開発作業を進め、最終的にPull Requestを自動で作成するといった開発フローも実現できます。さらに、GitHub Actionsと連携すれば、GitHubのリポジトリのコメントで@claude
とメンションするだけで、AIがタスクを実行し、進捗を報告しながら開発を進めるという革新的な使い方もできます。これは、まるでAIがチームメンバーのように開発に参加するイメージです。
さらに注目すべき機能として「MCP(Model Context Protocol)」があります。これは、AIがWebブラウザなどの複数の外部ツールと連携するための新しい仕組みです。Claude CodeはこのMCPに対応しており、例えば「Puppeteer MCP」というツールを使えば、AIがWebブラウザを操作してWebサイトの情報を取得したり、自動テストを行ったりすることも可能です。これにより、AIの能力がPC上の様々なツールに拡張され、より複雑なタスクを自動化できるようになります。
Claude Codeは、コード生成だけでなく、プロジェクト管理や外部ツールとの連携を通じて、開発者の作業を大幅に効率化し、生産性を向上させる可能性を秘めたAIツールと言えるでしょう。機能のバージョンアップも頻繁に行われているため、最新情報をチェックし続けることが推奨されています。
引用元: https://zenn.dev/kg_motors_mibot/articles/f46c6927c409fc
NVIDIAは、大規模言語モデル(LLM)の運用を劇的に効率化する最新ソフトウェア「Dynamo 0.4」を発表しました。この新バージョンは、LLMを大規模にデプロイする際の性能向上、コスト削減、そして運用管理のしやすさに重点を置いています。新人エンジニアの皆さんも、LLMがどのように動いているか、そしてそれをより良く動かす技術があることを知っておくと、今後の開発に役立つはずです。
主な改善点:
-
最大4倍の高速化(ディスクアグリゲーション機能) LLMが質問に答えるプロセスは、大きく分けて「Prefill(質問を理解する)」と「Decode(回答を生成する)」の2段階があります。Dynamo 0.4では、この2つの処理を別々のGPUに割り当てる「ディスクアグリゲーション」という技術を採用し、OpenAIのgpt-oss-120bモデルで最大4倍の応答速度向上を実現しました。これにより、チャットボットのように連続してやり取りする(エージェントワークフローなど)場合に、よりスムーズな体験を提供できます。また、DeepSeek-R1 671Bモデルでは、コストを増やさずにスループット(処理量)を2.5倍向上させています。
-
最適な設定を自動で提案(AIConfigurator) LLMを動かす際、どのGPUにどの処理を割り当てるか、最適な設定を見つけるのは大変です。新ツールの「AIConfigurator」は、指定したモデルとGPUの予算、そして「目標とする応答速度(SLO)」に基づいて、最適な設定を自動で提案してくれます。これにより、設定の試行錯誤にかかる時間を大幅に削減できます。
-
目標達成型のオートスケーリング(Planner機能) 以前のバージョンでもGPUのリソースを自動で調整する機能はありましたが、Dynamo 0.4では「SLO(サービスレベル目標)」に基づいて自動でGPUリソースを調整できるようになりました。例えば、「最初の単語が〇秒以内に出るようにする」といった応答速度の目標を設定すると、Plannerは将来のトラフィックを予測し、その目標を達成するために必要なGPUリソースを自動で増減させます。これにより、ユーザー体験を損なうことなく、無駄なコストを削減できます。Kubernetes(コンテナ化されたアプリケーションを管理するツール)とも連携し、コンテナ環境での利用も容易です。
-
リアルタイムでのパフォーマンス監視(可観測性) 大規模なLLMシステムでは、常にシステムの健康状態を把握し、問題があればすぐに対応することが重要です。Dynamo 0.4は、リクエスト数、応答速度(最初の単語までの時間や単語間の時間)、GPUの利用率など、重要な指標をリアルタイムで収集します。これらのデータは、PrometheusやGrafanaといったオープンソースツールで簡単に可視化できるため、システムのボトルネックを素早く特定し、改善に役立てることができます。
-
システムの安定性向上(堅牢性) 何百ものGPUを使うような大規模システムでは、どこか一部に障害が発生すると全体が停止してしまうリスクがあります。Dynamo 0.4では、リクエスト処理中にGPUに問題が発生しても、他の正常なGPUに自動で処理を切り替える「インフライトリクエストの再ルーティング」機能を導入しました。これにより、処理の途中でエラーになっても最初からやり直す必要がなくなり、ユーザー体験への影響を最小限に抑えます。また、障害をより早く検知する機能も追加され、システム全体の回復力が向上しています。
Dynamo 0.4は、これらの新機能により、大規模なLLMのデプロイと運用をより高性能、高効率、そして安定して行うことを目指しています。これらの技術は、将来皆さんがLLMを使ったアプリケーションを開発・運用する上で、重要な基盤となるでしょう。
引用元: https://developer.nvidia.com/blog/dynamo-0-4-delivers-4x-faster-performance-slo-based-autoscaling-and-real-time-observability/
お盆に亡くなった愛猫が精霊馬に乗って帰ってくる画像をChatGPTに生成依頼したところ、想像を超える壮大な作品が生まれ、SNSで大きな反響を呼びました。精霊馬が「行きはキュウリ、帰りはナス」という豆知識から、再度キュウリに乗ったスリムな猫の画像も生成。AIがペットへの愛情を形にし、感動や笑いを共有できるユニークな活用事例として、多くのユーザーに心温まる体験を提供しています。AIの表現力の面白さがわかる記事です。
引用元: https://togetter.com/li/2589274
VOICEVOX:ずんだもん