株式会社ずんだもん技術室AI放送局

AIやテクノロジーのトレンドを届けるPodcast。平日毎朝6時配信。朝の通勤時間や支度中に情報キャッチアップとして聞いてほしいのだ。

私立ずんだもん女学園放送部 podcast 20251114

2025年11月14日

MP3ファイルをダウンロード

内容紹介

Let AI do the hard parts of your holiday shopping、会話型AIエージェントでFunction Callingを使いこなす!、Execute Code with Sandboxes for DeepAgents、ChatGPT「チャッピー」呼び、いつから広がった?X投稿を分析

出演者

お嬢様ずんだもん
お嬢様ずんだもん

youtube版(スライド付き)

関連リンク

Googleは、ホリデーシーズンに向けてAIとエージェント技術を駆使した革新的なショッピングツールを発表しました。これにより、買い物の「面倒な部分」をAIが担い、ユーザーはより賢く、ストレスなく商品を見つけられるようになります。日本の新人エンジニアの皆さんにも理解しやすいよう、主要な機能をご紹介します。

  1. 検索での対話型AIショッピング: Google検索の「AIモード」が強化され、まるで友達に話すように自然な言葉で欲しいものをAIに伝えられます。「暖かいセーター」といった具体的なリクエストにも対応。AIは「Shopping Graph」(500億以上の商品データベース)から、価格、レビュー、在庫などの最新情報を整理して提示。画像や比較表で分かりやすく表示し、素早い選択を支援します。

  2. Geminiアプリでのショッピング機能拡張: GoogleのAIアシスタント「Gemini」アプリにもショッピング機能が統合されました。買い物のアイデア出しから商品探しまでGeminiがサポート。Shopping Graphからの信頼性の高い商品リストや価格情報などをアプリ内で提供します(米国で提供開始)。

  3. エージェントAIによる近隣店舗の在庫確認: 「欲しい商品が近くの店にあるか知りたい」時、「Let Google Call」機能を使えば、AIがユーザーに代わって近隣店舗に電話し、在庫状況や価格を確認。Googleの「Duplex技術」と最新のGeminiモデルが支え、ユーザーは電話を待つことなく、メールやテキストで結果を受け取れます。米国の一部カテゴリーで順次展開されます。

  4. エージェントAIによる最適な価格での自動購入(Agentic Checkout): この「agentic checkout」機能は、狙った価格になったら欲しかった商品を自動で購入する仕組みです。ユーザーが商品の詳細と希望価格を設定すると、予算内になった際に通知。対象の販売者の場合、ユーザーの許可を得てGoogleがGoogle Payを使って自動的に商品を購入。最適なタイミングを逃さず賢く買い物が可能です。

これらのAI活用による新しいショッピング体験は、日々の買い物をよりスマートで快適なものに変えるでしょう。忙しいエンジニアの皆さんにとって、時間を節約しつつ賢い選択をするための強力なツールとなりそうです。

引用元: https://blog.google/products/shopping/agentic-checkout-holiday-ai-shopping/

tacomsのMorixさんが、飲食店向け電話注文受付AIエージェント「Camel AI Call」の開発を通じて得た、LLMのFunction Calling活用術と課題解決策を共有しています。Function Callingは、LLMが外部のシステム(データベースやAPIなど)と連携して、情報を取得したり特定の処理を実行したりするための重要な機能です。例えば、ユーザーの質問に応じて天気情報を取得するツールをLLMが呼び出す、といった使われ方をします。

この機能を使う上で遭遇する主な課題と、その解決策は以下の通りです。

  1. 期待するツールをLLMが呼んでくれない場合: 複数のツールがあるときに、ユーザーの発話に対して意図しないツールが呼ばれたり、全く呼ばれなかったりすることがあります。
    • 解決策: LLMに最初に与える「システムプロンプト」で、いつどのツールを呼ぶべきかを具体的に指示します。さらに、ユーザーの新しい発話のたびに、その時点の会話状況や必要なツール呼び出しルールを「動的プロンプト」としてLLMに毎回伝えることで、LLMが状況を忘れずに正確にツールを選べるようになります。
  2. ツール実行後のLLMの動作を制御できない場合: ツールが成功したときは結果を答えてほしいが、失敗したときは謝罪して電話を切ってほしい、といったような、ツール実行後のLLMの次のアクションを細かく制御したいときに問題が発生します。
    • 解決策: ツールの実行結果を返すJSONデータに「ai_instruction」という特別なフィールドを追加します。このフィールドに「この結果を使って回答を生成せよ」や「謝罪してから次のツールを実行せよ」といった具体的な指示を記述します。そして、システムプロンプトなどで「ai_instructionの指示には必ず従うこと」とLLMに伝えておくことで、意図した通りの動作をさせることができます。一番新しい情報に指示を含めることが重要です。
  3. 処理速度が遅い場合: Function Callingを使うと、「ユーザー発話 → LLMがツール実行を判断 → ツール実行 → LLMが結果を元に回答」とステップが増えるため、単純な応答より時間がかかります。
    • 解決策: まず、遅延の原因が「LLMの判断時間」「ネットワークの待ち時間」「ツールの実行速度」「LLMの回答生成時間」のどこにあるかを計測します。これに基づき、LLMとサーバーの物理的な距離を縮めたり、ツールプログラム自体を改善したりします。また、LLM単独で処理できることはFunction Callingを使わずLLMに任せることで、ツール呼び出しの頻度を減らし、全体の速度を向上させることも有効です。ただし、これは品質とのバランスも考える必要があります。

まとめとして、LLMを思い通りに動かすためには、「一番新しいコンテキスト(LLMが現在持っている情報や会話の流れ)に、次に何をすべきかの具体的な指示を常に含める」ことが非常に重要であると強調されています。新人エンジニアの皆さんも、Function Callingを開発に活用する際にこれらのヒントをぜひ参考にしてみてください。

引用元: https://tacoms-inc.hatenablog.com/entry/2025/11/13/113000

LangChainは、AIエージェント開発をより安全かつ効率的に進めるための新機能「Sandboxes for DeepAgents(DeepAgents向けサンドボックス)」を発表しました。これは、AIエージェントがプログラムコードを実行する際に、隔離された安全な環境を提供するものです。現在はRunloop、Daytona、Modalという3つのパートナーのサンドボックスがサポートされています。

なぜサンドボックスが必要なのでしょうか?主なメリットは以下の5点です。

  1. 安全性: AIエージェントが誤って(あるいは悪意をもって)rm -rfのような危険なコマンドを実行しようとしても、ローカルマシンが壊れる心配がありません。隔離された環境なので、安心してエージェントにコードを実行させられます。
  2. クリーンな環境: 特定のプログラミング言語やライブラリ、OSの設定が必要な場合でも、ローカル環境を汚すことなく、必要な環境を一時的に用意できます。使い終わればすぐに破棄できるため、開発環境がごちゃごちゃになる心配がありません。
  3. 並列実行: 複数のAIエージェントを同時に動かす際も、それぞれが独立した環境で動くため、リソースの競合や予期せぬ干渉を防げます。
  4. 長時間タスク: 時間のかかる処理をエージェントに任せても、自分のPCがその間ずっと占有されることがありません。エージェントが作業している間も、あなたは別の作業に集中できます。
  5. 再現性: チームで同じ環境を簡単に共有できるため、「自分の環境では動くのに、他の人の環境では動かない」といった問題を減らし、開発の再現性を高められます。

この仕組みでは、DeepAgent自体はあなたのPCなどで動きますが、コードの実行やファイルの作成、コマンドの実行といった具体的な操作は、遠隔のサンドボックス内で行われます。エージェントはサンドボックス内のファイルの状態やコマンドの実行結果をすべて把握できるため、まるでローカルで動いているかのように自然に作業を進められます。また、事前に準備スクリプトを設定すれば、環境変数の読み込みやGitリポジトリのクローンなども自動化できます。

利用開始はとても簡単です。RunloopやDaytonaを使う場合はAPIキーを設定し、Modalの場合は簡単なセットアップを行うだけ。その後、DeepAgents CLIというコマンドラインツールを使って、sandboxsandbox-setupコマンドを実行すれば、すぐにサンドボックスをエージェントに連携できます。

重要な注意点として、サンドボックスは環境を隔離しますが、エージェントが不正なプロンプト(指示)によって機密情報を漏らしたり、意図しない操作をしたりする「プロンプトインジェクション」のリスクは残ります。このため、信頼できる設定スクリプトの使用、必要に応じた人間の確認(human-in-the-loop)、短命な秘密情報の利用などが推奨されています。

LangChainは今後もサンドボックスの設定オプションを増やし、より実践的な活用例を提供していくとのことです。この新機能は、AIエージェントを使った開発をより安全に、そして効率的に進めるための強力なツールとなるでしょう。

引用元: https://blog.langchain.com/execute-code-with-sandboxes-for-deepagents/

ChatGPTの愛称「チャッピー」が流行語にノミネートされ、この記事ではその広がりをX(旧Twitter)投稿データで分析しています。2025年4月にXでの言及が急増し、夏には一般に定着したことが判明。最初はAIを「相棒」のように使う層から親しまれ始め、次第に多くの人がこの愛称を知って使うようになり、AIが日常に溶け込む中で生まれた面白い文化の変遷が分かります。

引用元: https://withnews.jp/article/f0251113000qq000000000000000W0je10701qq000028375A

VOICEVOX:ずんだもん