株式会社ずんだもん技術室AI放送局

AIやテクノロジーのトレンドを届けるPodcast。平日毎朝6時配信。朝の通勤時間や支度中に情報キャッチアップとして聞いてほしいのだ。

株式会社ずんだもん技術室AI放送局 podcast 20250826

2025年08月26日

MP3ファイルをダウンロード

内容紹介

Agent Development Kit(ADK) でデータサイエンス AI エージェントを動かしてみる、GeminiのURL context toolを解説。スクレイピングなしでWebコンテンツを取得、NVFP4 Trains with Precision of 16-Bit and Speed and Efficiency of 4-Bit、親会社から「パクれ」と指示された会社が、開発者の僕に「回路図とソースをくれ」と直接連絡してきた→「え…どう言う事?」「稀によくある」

出演者

ずんだもん
ずんだもん

関連リンク

皆さん、こんにちは!今回は、Googleが発表した新しいAIエージェント開発フレームワーク「Agent Development Kit(ADK)」について、新人エンジニアの皆さんにも分かりやすくご紹介します。

AIエージェントは、ただ質問に答えるチャットボットから進化し、自分で考えて計画を立て、複雑なタスクをこなせるようになりました。ADKは、このような高度なAIエージェントを、プロトタイプだけでなく実際のサービスとして運用できるレベルで開発・デプロイするためのオープンソースのフレームワークです。

ADKの大きな特徴はいくつかあります。まず「マルチエージェント設計」といって、専門分野の異なる複数のAIエージェントが協力し合って一つの大きなタスクを解決する仕組みが基本です。これにより、まるで部署が分かれた会社のように、各エージェントが自分の得意なことを担当し、システム全体として複雑な処理を効率よく行えます。次に「柔軟なオーケストレーション」では、AIが次に何をすべきかを自分で考えることも、開発者が決めた手順で動かすこともできます。また、既存のツールだけでなく、他のエージェント自体も「ツール」として再利用できるため、拡張性が非常に高いのも魅力です。さらに、Web UIやコマンドラインツール(CLI)が用意されており、エージェントの動きを視覚的に確認しながら効率的に開発を進められます。

記事では、ADKのサンプルの中から「データサイエンス」に特化したAIエージェントの概要が紹介されています。このデータサイエンスエージェントは、Google CloudのデータウェアハウスであるBigQueryと連携し、データの操作、グラフ作成などの可視化、さらにはBigQuery MLを使った機械学習モデルの構築までを自律的に行います。このエージェントも、データの分析担当、グラフ描画担当、機械学習担当といった専門家(サブエージェント)が協力し合う「マルチエージェント」として設計されています。例えば、「サブエージェント」は専門的なタスクを委任され、自分で判断して実行する能力を持ち、「エージェント・アズ・ア・ツール」は特定の機能を一つの道具のように呼び出して利用されます。

ADKのWeb UIを使えば、エージェントがユーザーの指示に対して、どのようにタスクを分解し、どの専門エージェントやツールを呼び出して処理を進めたか、その思考プロセスを「Trace」や「Events」機能で具体的に確認できます。これにより、エージェントがなぜそのように動いたのかを理解しやすく、開発やデバッグがスムーズに行えるのが大きなメリットです。

ADKは、これからのAIエージェント開発を強力に支援するツールです。複雑なAIシステムを効率的に構築し、その動作を深く理解するための手助けとなるでしょう。ぜひ、皆さんもADKに触れて、未来のAI開発を体験してみてください。

引用元: https://zenn.dev/cloud_ace/articles/adk-sample-data-science

今回は、Googleの生成AI「Gemini」を開発で使う際に便利な「URL context tool」について、新人エンジニアの方にも分かりやすく解説します。

URL context toolとは?

このツールは、Geminiに特定のWebサイトの内容を直接読み込ませて、その情報を基に回答を生成させるための機能です。通常、Webサイトの情報をAIに使うには、Webスクレイピングという技術でプログラムを書いてデータを集める必要がありました。しかし、URL context toolを使えば、この手間を省き、URLを指定するだけでGeminiが自動的にWebサイトの内容を「コンテキスト(文脈や背景情報)」として理解し、利用してくれます。

何が便利なの?

  • Webスクレイピング不要: 面倒なプログラミングなしでWebサイトの情報をAIに渡せます。
  • ハルシネーション(AIの誤情報生成)の軽減: 特定のWebサイトの正確な情報を基に回答するため、AIが事実と異なる情報をでっち上げる「ハルシネーション」のリスクを減らせます。
  • 具体的な活用例:
    • 記事から重要なポイントをまとめてもらう
    • 複数のWebページを比較して違いを教えてもらう
    • 特定のページの内容について質問に答えてもらう

どんな時に使うと良いの?

このツールは、特定のWebサイトに書かれている情報だけを使って、Geminiに答えを出してほしい場合に特に役立ちます。例えば、会社のマニュアルページや、特定の技術ブログの記事など、参照元が明確な情報源から知識を得たいときに真価を発揮します。

他のツールとの違いは?

  • Google Search toolとの比較: Geminiには「Google Search tool」という、Google検索を使ってインターネット上の広範な情報を集めてくるツールもあります。広範囲な検索にはSearch toolが強いですが、特定のURLに書かれた情報だけを正確に参照したい場合は、URL context toolの方が優れています。例えば、ある製品の特定のバージョンの機能について、公式サイトのページに書かれた情報のみを参照して回答してほしい、といったケースです。
  • 併用も可能: URL context toolとGoogle Search toolは、両方一緒に使うこともできます。これにより、特定のURLの深い情報と、インターネット上の広範な情報を組み合わせて、より詳細で正確な回答を得ることが可能になります。

知っておくべきこと

このURL context toolは、2025年8月時点ではまだ「試験運用版(Experimental)」の機能です。そのため、将来的に仕様が変わったり、場合によっては利用できなくなる可能性もある点には注意が必要です。

このツールを使いこなすことで、Geminiを使ったAI開発がもっと効率的で正確になるはずです。ぜひ試してみてくださいね。

引用元: https://blog.g-gen.co.jp/entry/gemini-url-context-tool-explained

近年、ChatGPTのような大規模言語モデル(LLM)は急速に進化していますが、その「学習」(事前学習)には膨大な計算資源と時間が必要です。モデルの精度を高く保つため、これまでは16ビットや8ビットといった比較的高い精度のデータ形式が使われてきました。しかし、これにより学習にかかるコストや時間が膨大になるという課題がありました。

NVIDIAは、この課題を解決するため、4ビットの浮動小数点フォーマット「NVFP4」をLLMの学習段階にも適用できる画期的な技術を発表しました。NVFP4はこれまで、学習済みのモデルを利用する「推論」の段階で主に使われていましたが、今回の技術革新により、学習の最初から最後まで4ビット精度で処理することが可能になります。

この4ビット学習の最大のメリットは、モデルの精度を維持しながら、学習の速度と効率を飛躍的に向上させられる点です。データを4ビットに「量子化」(情報を簡略化して扱う技術)することで、GPUのメモリ消費量を大幅に減らし、一度に処理できるデータ量(トークンスループット)を増やすことができます。これにより、AI開発環境(AI工場)は、同じハードウェアでより大規模なモデルを、より短時間で開発できるようになり、新たなAIの能力を引き出すことが期待されます。

この革新的な技術を実現したのは、NVIDIAの最新GPUアーキテクチャ「Blackwell」のFP4ネイティブサポートと、NVIDIA独自の「NVFP4事前学習レシピ」です。Blackwell GPU(GB200/GB300)は、LLM学習の核となる行列計算を、従来のGPUと比べて最大7倍高速化します。

また、4ビットという非常に低い精度で学習しながらも高い精度を保つために、以下の主要な技術が組み合わされています。

  1. マイクロブロック・スケーリング: データをより細かく区切って調整し、量子化による誤差を最小限に抑えます。
  2. 高精度ブロックエンコーディング: データをより正確に表現できる特殊なスケールファクタ(E4M3)を使います。
  3. テンソル分布の整形: データのばらつきを均一に近づけることで、4ビットでも扱いやすくします。
  4. 量子化忠実度の維持: 学習の順方向と逆方向で、データの表現方法に一貫性を持たせ、モデルの安定性を高めます。
  5. 確率的丸め: データを丸める際に、確率的に処理することで、誤差の偏りを防ぎ、モデル精度を向上させます。

これらの技術により、NVIDIAは120億パラメータのLLMを、従来の8ビット精度(FP8)と同等の精度と学習安定性で、10兆トークンという膨大なデータでNVFP4を使って学習させることに成功しました。その結果、学習後のモデル性能もFP8モデルと遜色ないことが確認されています。

NVFP4による4ビット学習は、AIモデル開発における効率とスケーラビリティの新たな基準を確立し、エネルギー効率の高い高性能AIの実現を加速します。これは、より先進的なアーキテクチャや、より大規模な学習の道を開き、生成AIの未来を大きく前進させる重要な一歩となるでしょう。

引用元: https://developer.nvidia.com/blog/nvfp4-trains-with-precision-of-16-bit-and-speed-and-efficiency-of-4-bit/

親会社から「パクれ」と指示された会社が、以前その製品を開発した元請けのエンジニアに、休日にもかかわらず直接連絡し、回路図とソースコードを要求するという驚きの出来事が話題になっています。この非常識な要求に開発者は困惑。多くのエンジニアがこの状況に対し「どういうこと?」「稀によくある」といった反応を示し、IT業界の理不尽な「あるある」として共感を呼んでいます。

引用元: https://posfie.com/@petaritape/p/WNOzhps

(株式会社ずんだもんは架空の登場組織です)