私立ずんだもん女学園放送部 podcast 20260424
内容紹介
Deep Research Max: a step change for autonomous research agents、Speeding up agentic workflows with WebSockets in the Responses API、Winning a Kaggle Competition with Generative AI–Assisted Coding、何年たった今でも「もしドラ」がヒットした理由がわからないというつぶやきに対し、当時のマーケティングとしては斬新で「ゾルトラークみたいなものだ」という意見も
出演者
youtube版(スライド付き)
関連リンク
Google DeepMindは、最新モデル「Gemini 3.1 Pro」を基盤とした次世代の自律型リサーチエージェント「Deep Research」および「Deep Research Max」を発表しました。これまでのAIは主に情報の要約を得意としていましたが、本エージェントは自律的に推論と検索を繰り返し、プロフェッショナル品質の分析レポートを生成する「調査の自動化」を実現します。
今回のアップデートでは、用途に合わせて以下の2つのエージェントが提供されます。
- Deep Research: 速度と効率を最適化したモデル。ユーザーが直接操作するアプリなど、リアルタイム性が求められるシーンに適しています。
- Deep Research Max: 「思考時間の延長(extended test-time compute)」を活用する最上位モデル。より多くの情報源に当たり、矛盾する証拠の検証や詳細な推敲を行うため、非同期で行う重厚な調査タスクに最適です。
新人エンジニアの方に特に注目してほしい技術的なポイントは、MCP(Model Context Protocol)への対応です。これにより、エージェントはWeb上の公開情報だけでなく、企業の独自データや専門的な外部データベース(金融データなど)にセキュアにアクセスできるようになりました。単なる「検索くん」ではなく、専門的な道具を使いこなす「自律的なエージェント」へと進化しています。
その他の主な新機能は以下の通りです。
- ネイティブな可視化: 調査結果に基づき、チャートやインフォグラフィックをHTML形式などで自動生成します。
- 対話的なプランニング: 調査開始前にエージェントが提示する計画を人間がレビュー・修正でき、調査の方向性をコントロール可能です。
- マルチモーダルな根拠付け: PDFやCSVだけでなく、画像、音声、動画も入力ソースとして活用できます。
- 思考プロセスの可視化: エージェントが現在どのように考え、どのステップを進めているかをリアルタイムで確認できます。
現在はGemini APIの有料ティアでパブリックプレビューとして公開されており、Google Cloud経由での提供も予定されています。AIが「自ら考え、調べ、図解まで行う」という、エージェント活用の新しいスタンダードを示す注目のアップデートです。
引用元: https://blog.google/innovation-and-ai/models-and-research/gemini-models/next-generation-gemini-deep-research/
OpenAIは、AIエージェントの処理速度を劇的に向上させるため、Responses APIにWebSocketを導入したことを発表しました。この技術アップデートにより、複雑なタスクを実行するエージェントのワークフローが従来より約40%高速化されます。
1. 背景:推論の高速化が招いた「APIのボトルネック」
「Codex」のようなAIエージェントは、「モデルが次のアクションを決定する」→「ローカル環境でツールを実行する」→「結果をAPIに返す」というやり取りを何度も繰り返します(エージェント・ループ)。 従来、このループで最も時間がかかっていたのはモデルの推論(GPU処理)でした。しかし、最新のモデル(GPT-5.3-Codex-Sparkなど)は毎秒1,000トークン以上の高速推論が可能になったため、相対的に「APIサーバーでのリクエスト処理(CPU処理)」や「ネットワークの往復」による遅延(オーバーヘッド)が無視できない課題となりました。
2. 課題:ステートレスなHTTPの限界
これまでの標準的なAPI(HTTPベース)では、各リクエストが独立していました。そのため、会話が長くなるほど、毎回すべての履歴をトークナイズしてサーバーへ送信し、検証し直す必要がありました。この「重複した作業」が、エージェントの応答を遅くする原因でした。
3. 技術的解決策:WebSocketによる持続的接続
OpenAIの開発チームは、ステートフル(状態を維持できる)な通信プロトコルであるWebSocketを採用しました。これにより、一度接続を確立すると、サーバー側のメモリに会話のコンテキスト(履歴、ツール定義、サンプリング情報など)をキャッシュできるようになりました。
- 使い慣れた形状の維持: gRPCなども検討されましたが、開発者が既存のAPI構成を大きく変えずに導入できるよう、馴染みのあるメッセージ形式を採用しています。
- 増分処理の実現:
previous_response_idを指定してリクエストを送ることで、サーバーはメモリ上のキャッシュから状態を復元します。これにより、安全性の検証やバリデーションを「新しく追加された入力分のみ」に限定でき、大幅な軽量化に成功しました。
4. 導入成果:エージェントが「爆速」に
このWebSocketモードの導入により、以下のような目覚ましい成果が得られています。
- エンドツーエンドの遅延を約40%削減: VercelのAI SDKやCursor、Clineといった主要な開発ツールで、30〜40%の高速化が確認されました。
- 超高速推論の最大活用: 推論速度が向上したモデルの性能をフルに引き出し、本番環境で最大4,000 TPS(トークン/秒)のスパイクにも対応可能になりました。
新人エンジニアの皆さんにとって、このニュースは「通信プロトコルの選択(HTTP vs WebSocket)」がいかにシステムのパフォーマンスに直結するかを示す好例です。モデルそのものの進化だけでなく、それを取り巻く周辺システムの最適化が、次世代のAI体験を支えています。
引用元: https://openai.com/index/speeding-up-agentic-workflows-with-websockets
本記事は、2026年3月に開催されたKaggleのコンペティションにおいて、3つのLLMエージェントを活用して優勝を果たした手法の解説です。特筆すべきは、LLMエージェントが60万行以上のコードを生成し、計850回もの実験を短期間で実行した点にあります。
これまでの機械学習コンペにおけるボトルネックは「実験コードを書く速さ」と「実験を実行する速さ」の2点でした。後者はNVIDIA cuDFやGPU加速ライブラリによって解決されてきましたが、前者はLLMエージェントの登場により劇的に高速化されました。今回の事例では、GPT-5.4 Pro、Gemini 3.1 Pro、Claude Opus 4.6といった複数の最新モデルを「Human-in-the-loop(人間が介在する)」形式で使い分け、以下の4ステップで開発を進めています。
- LLMエージェントによるEDA(探索的データ分析): データの構造や欠損値の有無を、LLMに分析用コードを書かせて把握させます。エージェント自身にコードを実行・修正させることで、人間はデータの全体像を迅速に理解できます。
- ベースラインの構築: データの構造を理解したLLMに、XGBoostなどの基本的な学習パイプラインを即座に構築させます。この段階で、後の統合を見据えてクロスバリデーションの予測結果(OOF)などを保存する仕組みを整えます。
- 特徴量エンジニアリングと反復: ここが最も強力な部分です。LLMに論文やフォーラムの知識を読み込ませたり、新しい特徴量のアイデアを提案させたりして、次々と改善案を試します。GPUによる高速な実行環境があることで、LLMが生成する大量のコードを即座に評価し、スコアが向上したものだけを抽出するサイクルが可能になります。
- モデルの統合(スタッキング等): 最終的に、850回の実験から得られた150個ものモデルを、スタッキングや知識蒸留を用いて統合します。膨大な実験結果の要約や、最適なモデルの組み合わせの選定もLLMがサポートします。
新人エンジニアの皆さんへの示唆として、現代の開発では「全てのコードを自力で書く」こと以上に、「LLMに適切な指示を出し、GPU等の計算資源をフル活用して、いかに高速に試行錯誤(イテレーション)を回すか」というスキルの重要性が高まっていることがわかります。アイデアを形にする速度をLLMで最大化することが、勝利への近道となります。
引用元: https://developer.nvidia.com/blog/winning-a-kaggle-competition-with-generative-ai-assisted-coding/
ヒット作『もしドラ』が社会現象となった背景を、当時の斬新なマーケティング戦略から分析したまとめです。後に一般的となる「長文タイトル」や「萌え絵表紙」をビジネス書に導入し、新たな市場を開拓した手法は、後に「ゾルトラーク(一般攻撃魔法)」に例えられるほど業界の標準を塗り替えました。ずんだもん発案者が「もしドラがなければ、ずんだもんは生まれなかった」と語るなど、現在のキャラ文化への影響も深い内容です。
引用元: https://togetter.com/li/2688922
VOICEVOX:ずんだもん