株式会社ずんだもん技術室AI放送局

AIやテクノロジーのトレンドを届けるPodcast。平日毎朝6時配信。朝の通勤時間や支度中に情報キャッチアップとして聞いてほしいのだ。

株式会社ずんだもん技術室AI放送局 podcast 20260310

2026年03月10日

MP3ファイルをダウンロード

内容紹介

Copilot Cowork: A new way of getting work done、Qwen3.5-9B:9Bクラスで異常な高性能を発揮するマルチモーダル軽量モデル、Claude Code が RAG を捨てた理由 -「Agentic Search」という選択肢

出演者

ずんだもん
ずんだもん

youtube版(スライド付き)

関連リンク

Microsoftが発表した「Copilot Cowork」は、AIとの関わり方を「単なるチャット」から「自律的なアクションの実行」へと進化させる画期的な新機能です。これまでのAIアシスタントは質問に答えたり文章の下書きを作ったりするのが主な役割でしたが、Copilot Coworkはユーザーに代わってMicrosoft 365上の複雑なタスクを計画・実行する「エージェント」としての側面を強く持っています。

技術的な基盤として、Microsoft 365全体の信号(メール、会議、ファイル、データなど)を統合して理解する「Work IQ」を活用しています。これにより、AIはユーザーの業務背景を深く理解した状態で、以下のような具体的なアクションを自律的に進めることが可能になります。

  1. カレンダーの自動整理: 優先順位に基づき、会議の調整や集中時間の確保を自動で行います。
  2. 会議の準備とフォロー: 関連資料からブリーフィング文書やスライドを生成し、チームへの共有まで完了させます。
  3. 高度なリサーチ: 公開情報や社内データを収集・分析し、引用元を明示したレポートやExcelワークブックとしてまとめます。
  4. プロジェクト計画の策定: 競合分析から資料作成、マイルストーンの設定までを一貫して行います。

特筆すべきは、これらの作業が「バックグラウンド」で進行する点です。ユーザーがAIの提案した実行プランを承認すると、AIは裏側でタスクを進め、必要に応じてユーザーにチェックポイントでの確認を求めます。これにより、エンジニアやビジネスパーソンは「自分にしかできない創造的な仕事」に集中できるようになります。

また、インフラ面ではAnthropic社の「Claude Cowork」の技術を統合しており、特定のAIモデルに依存せず、タスクごとに最適なモデルを選択して実行するマルチモデル戦略をとっています。セキュリティ面でもエンタープライズレベルのガバナンスが適用され、サンドボックス環境で安全に動作します。

新人エンジニアにとって、このニュースは「AIをどう使いこなすか」から「AIというチームメンバーにどう仕事を任せるか」という、次世代のソフトウェア活用の形を示唆しています。本機能は2026年3月末より、Frontierプログラムを通じて順次提供が開始される予定です。

引用元: https://www.microsoft.com/en-us/microsoft-365/blog/2026/03/09/copilot-cowork-a-new-way-of-getting-work-done/

2026年3月、AlibabaのQwenチームが公開した「Qwen3.5-9B」が、AIコミュニティで「バグレベルの高性能」と大きな注目を集めています。このモデルは9B(90億パラメータ)という、一般的なPCでも動作可能な軽量サイズでありながら、かつての巨大モデル(120B級)に匹敵する驚異的な知能を備えています。

技術的な特徴として、まず「Gated Delta Networks(線形注意機構)」と「sparse MoE(疎な混合エキスパート)」を組み合わせたハイブリッドアーキテクチャが挙げられます。これにより、非常に高い推論効率を実現しており、RTX 4090などのコンシューマ向けGPUでも爆速で動作します。また、コンテキスト長はネイティブで約26万トークン、最大で100万トークンまで拡張可能となっており、長大なドキュメント解析やソースコードの理解にも最適です。

さらに、本モデルは「ネイティブ視覚言語モデル」として設計されており、テキスト・画像・動画を高度に融合して理解できます。特に動画理解においては字幕も考慮した解析が可能で、小型モデルとは思えない視覚理解力を誇ります。また、内部的に「」タグを用いた思考プロセス(Chain-of-Thought)を生成する仕組みがデフォルトで備わっており、論理的な正確性や指示追従能力が極めて高いのが特徴です。

多言語対応についても、日本語を含む201の言語・方言をサポートしており、特にアジア圏の言語において高い精度を発揮します。ライセンスはApache 2.0で、商用利用も自由です。

実際の評価では、数学、論理推論、プログラミング、指示追従といった主要なベンチマークで、同クラスのLlama 3.1-8BやGemma-3-9Bを大きく上回るスコアを記録しています。コミュニティでは「ラップトップ1台で大学院レベルの数学や高度なエージェントタスクがこなせる」と絶賛されています。

新人エンジニアの皆さんにとって、このモデルはローカルLLM(自分のPCで動かすAI)の入門として最適です。LM StudioやOllamaなどのツールを使えば、GGUF形式の量子化モデルを数クリックで動かすことができます。ぜひ一度、この「小さくて賢い」最新AIの実力を体験し、開発のパートナーとして活用してみてください。

引用元: https://note.com/zephel01/n/n593d399bd705

AIアシスタント「Claude Code」の開発チームが、なぜ主流のRAG(検索拡張生成)ではなく、古典的なツールである「glob」や「grep」を組み合わせた「Agentic Search」を選んだのか、その背景と技術的な本質を解説します。新人エンジニアの方にとっても、今後のAI活用における「設計思想」を学ぶ上で非常に示唆に富む内容です。

1. なぜRAGを捨てたのか?

開発初期、Claude Codeでもベクトルデータベースを用いたRAGが試されました。しかし、以下の実運用上の課題に直面しました。

  • コードの同期ずれ: 開発中のコードは絶えず変化するため、インデックス作成が追いつかず、最新の関数を見つけられない。
  • 権限管理の複雑さ: 誰がどのデータにアクセスできるかをベクトル空間で管理するのが困難。

その結果たどり着いたのが、モデル自身に「glob(ファイル探し)」と「grep(文字列検索)」というシンプルなツールを使いこなさせる手法でした。

2. 「Agentic Search」の核心:知性をどこに置くか

従来のRAGは、検索者(人間)が「最適な検索ワードを知らない」ことを前提に、システム側(パイプライン)で意味を補完します。一方、Agentic Searchは「検索者(LLM Agent)自身が賢い」ことを前提としています。

  • 意図の変換: 「デプロイ手順」という曖昧な目的から、Agent自身が grep "Dockerfile" のように具体的なキーワードを生成できます。
  • 反復と推論: 1回で見つからなければ別のキーワードを試し、ディレクトリ構造を見て「設定ファイルはここにあるはずだ」と推論しながら探索します。

つまり、複雑な検索エンジンを作るよりも、LLMという高い知性にシンプルな道具を持たせる方が、エンジニアリングの現場では効率的だったのです。

3. エンジニアが意識すべきこと

Agentic Searchが強力に機能するためには、人間側の「整理整頓」が重要になります。

  • 構造化: 適切なディレクトリ構成やファイル命名を行う。
  • 検索ガイド(CLAUDE.md): プロジェクトの規約や構造を自然言語で記述したファイルを用意する。これはAgentにとっての「地図」となります。

まとめ

RAGが不要になったわけではありませんが、AIエージェントが主体となる開発環境では、高度なインデックスよりも「整理されたコード」と「適切なガイド」がAIの能力を最大化します。技術のトレンドを追うだけでなく、AIが働きやすい環境を人間が整えるという視点は、これからのエンジニアにとって不可欠なスキルとなるでしょう。

引用元: https://zenn.dev/acntechjp/articles/c1296f425baf03

(株式会社ずんだもんは架空の登場組織です)