株式会社ずんだもん技術室AI放送局

AIやテクノロジーのトレンドを届けるPodcast。平日毎朝6時配信。朝の通勤時間や支度中に情報キャッチアップとして聞いてほしいのだ。

株式会社ずんだもん技術室AI放送局 podcast 20250327

2025年03月27日

Audio Player

00:00
00:00:00 | 00:00:00
Use Up/Down Arrow keys to increase or decrease volume.

MP3ファイルをダウンロード

お知らせ

告知宣伝なのだ。4月10日木曜日18時半から「LangChainとLangGraphによるRAG・AIエージェント実践入門」10章 要件ドキュメント生成AIエージェントの輪読会を開催するのだ。気軽に参加してほしいのだ。詳しくはpodcastホームページを見てほしいのだ。

内容紹介

Model context protocol (MCP) - OpenAI Agents SDK、"「生成AIこんなものか」と諦める前に" 営業AIエージェント開発現場から学ぶLLM品質保証テクニック、中国DeepSeek、非推論モデルで「米国製AI」を凌駕するスコア--OpenAIやGoogleを上回る

出演者

ずんだもん
ずんだもん

関連リンク

OpenAI Agents SDKにおけるMCP(Model Context Protocol)は、LLM(大規模言語モデル)が外部ツールやデータソースにアクセスするための標準化されたプロトコルです。MCPは、AIアプリケーションにおけるUSB-Cポートのように、LLMと様々なツールを接続する共通のインターフェースを提供します。

MCPサーバーには、ローカルで動作するstdioサーバーと、URL経由で接続するHTTP over SSEサーバーの2種類があります。Agents SDKでは、MCPServerStdioMCPServerSseクラスを使ってこれらのサーバーに接続できます。

MCPサーバーをAgentに追加することで、Agentはサーバーのツールを認識し、必要に応じて呼び出すことができます。list_tools()でツール一覧を取得し、call_tool()でツールを実行します。

ツールリストはキャッシュすることも可能です。ツールリストが変更されないことが確実な場合に、cache_tools_list=Trueを設定することで、レイテンシを改善できます。キャッシュを無効化する場合は、invalidate_tools_cache()を呼び出します。

引用元: https://openai.github.io/openai-agents-python/mcp/

LLMの品質保証は、従来のシステム開発とは異なり、事前の網羅的なテストだけでは不十分です。重要なのは、品質を継続的にモニタリングし、改善していく運用戦略です。 具体的な戦略として、

  1. エラーパターンの言語化と継続的改善
  2. 評価と生成の分離
  3. LLMの逃げ道を作る という3つのポイントを紹介しています。 重要なのは、LLMの限界を理解した上で、課題の検知と対処の仕組みを構築することです。

引用元: https://tech.algomatic.jp/entry/2025/03/26/182954

中国のDeepSeek V3が、AIのベンチマークでOpenAIやGoogleを上回り、非推論モデルでトップに。DeepSeek V3はオープンソースで、高速かつ低コストなのが特徴。推論モデルではないため大規模データ向けではないものの、多くのタスクで実用的な点が強みです。中国AI企業がオープンソース戦略で米国に対抗する構図が見えます。

引用元: https://japan.cnet.com/article/35230944/

(株式会社ずんだもんは架空の登場組織です)