株式会社ずんだもん技術室AI放送局 podcast 20250327
Audio Player
お知らせ
告知宣伝なのだ。4月10日木曜日18時半から「LangChainとLangGraphによるRAG・AIエージェント実践入門」10章 要件ドキュメント生成AIエージェントの輪読会を開催するのだ。気軽に参加してほしいのだ。詳しくはpodcastホームページを見てほしいのだ。
内容紹介
Model context protocol (MCP) - OpenAI Agents SDK、"「生成AIこんなものか」と諦める前に" 営業AIエージェント開発現場から学ぶLLM品質保証テクニック、中国DeepSeek、非推論モデルで「米国製AI」を凌駕するスコア--OpenAIやGoogleを上回る
出演者
関連リンク
OpenAI Agents SDKにおけるMCP(Model Context Protocol)は、LLM(大規模言語モデル)が外部ツールやデータソースにアクセスするための標準化されたプロトコルです。MCPは、AIアプリケーションにおけるUSB-Cポートのように、LLMと様々なツールを接続する共通のインターフェースを提供します。
MCPサーバーには、ローカルで動作するstdioサーバーと、URL経由で接続するHTTP over SSEサーバーの2種類があります。Agents SDKでは、MCPServerStdio
とMCPServerSse
クラスを使ってこれらのサーバーに接続できます。
MCPサーバーをAgentに追加することで、Agentはサーバーのツールを認識し、必要に応じて呼び出すことができます。list_tools()
でツール一覧を取得し、call_tool()
でツールを実行します。
ツールリストはキャッシュすることも可能です。ツールリストが変更されないことが確実な場合に、cache_tools_list=True
を設定することで、レイテンシを改善できます。キャッシュを無効化する場合は、invalidate_tools_cache()
を呼び出します。
引用元: https://openai.github.io/openai-agents-python/mcp/
LLMの品質保証は、従来のシステム開発とは異なり、事前の網羅的なテストだけでは不十分です。重要なのは、品質を継続的にモニタリングし、改善していく運用戦略です。 具体的な戦略として、
- エラーパターンの言語化と継続的改善
- 評価と生成の分離
- LLMの逃げ道を作る という3つのポイントを紹介しています。 重要なのは、LLMの限界を理解した上で、課題の検知と対処の仕組みを構築することです。
引用元: https://tech.algomatic.jp/entry/2025/03/26/182954
中国のDeepSeek V3が、AIのベンチマークでOpenAIやGoogleを上回り、非推論モデルでトップに。DeepSeek V3はオープンソースで、高速かつ低コストなのが特徴。推論モデルではないため大規模データ向けではないものの、多くのタスクで実用的な点が強みです。中国AI企業がオープンソース戦略で米国に対抗する構図が見えます。
引用元: https://japan.cnet.com/article/35230944/
(株式会社ずんだもんは架空の登場組織です)