株式会社ずんだもん技術室AI放送局

AIやテクノロジーのトレンドを届けるPodcast。平日毎朝6時配信。朝の通勤時間や支度中に情報キャッチアップとして聞いてほしいのだ。

株式会社ずんだもん技術室AI放送局 podcast 20251001

2025年10月01日

MP3ファイルをダウンロード

内容紹介

Temporal Workflow で実現する Durable な AI Agent #LayerX_AI_Agent_ブログリレー、AIエージェントはSaaSをどう変える?ラクスのR&Dで挑戦した垂直型の可能性、Effective context engineering for AI agents、“虚空を見つめる猫”になって事故物件を探索するホラーゲーム『The Way hOme』発表。怪異を祓うまで、執拗に見つめ続けよう

出演者

ずんだもん
ずんだもん

youtube版(スライド付き)

関連リンク

この記事は、AI Agentを実際のプロダクトに組み込む際に直面する「長時間実行される処理をいかに安定して動かすか」という課題を、Workflow EngineであるTemporal Workflowを使って解決する方法について、新人エンジニアにも分かりやすく解説しています。

AI Agentとは、与えられた目標に対し、ツールを自律的に使って情報を集めたり、環境に働きかけたりしながらタスクをこなすソフトウェアのことです。例えば、ユーザーの入力に応じて情報を検索し、結果を生成するといった一連の処理を「Agent Loop」と呼びます。

このAgent Loopは、数分から数十分かかる長時間処理になることがよくあります。そのため、途中でネットワークが切れたり、サーバーがダウンしたりすると、処理が中断されてしまい、タスクが完了できないという問題が発生します。また、ツールが何らかの変更を伴う場合、中断された処理を単にやり直すと、データが重複して作成されるなどのバグにつながる恐れもあります。 このような問題を解決し、AI Agentの処理を確実に最後まで実行するには、途中で中断されても再開できる「Durable Execution(耐久性のある実行)」を実現する仕組みが必要です。

そこで登場するのが「Temporal Workflow」です。Temporalは、私たちが普段書くようなコードで一連のタスク(Workflow)を定義できる実行エンジンです。AI AgentのAgent Loopにおける「LLM(大規模言語モデル)に処理をさせる」「ツールを実行する」といった個々のステップをTemporalの「Activity」として実行することで、Workflow全体の状態をTemporalが管理し、万が一処理が中断しても、途中から確実に再開できるようになります。

Temporal Workflowを導入することには、いくつかの大きなメリットがあります。

  1. 柔軟なタスク実行: AI Agentの処理だけでなく、ファイルアップロード時の前処理や定期実行ジョブなど、様々なバックグラウンドタスクをWorkflowとして組み込めます。
  2. 外部からの操作に対応: 稼働中のAgentに対して、ユーザーからのメッセージをリアルタイムで受け取ったり(Signalという仕組み)、人の承認が必要なプロセス(Human-in-the-loop: HITL)を簡単に実装したりできます。これにより、ユーザーとの対話がスムーズになります。
  3. 状態管理の簡素化: Workflowの途中の状態をデータベースなどに明示的に保存する必要がなく、あたかもローカル変数のように扱えるため、開発者は複雑な状態管理に頭を悩ませずに済みます。
  4. 長時間の待ち状態に対応: 特定の条件が満たされるまで待機したり、排他的に処理を実行したりする機能も標準で備わっており、HITLのような長時間にわたるユーザー操作の待ち受けも安定して行えます。
  5. バージョン管理: 長時間実行されるWorkflowの実装が変わっても、古いバージョンと新しいバージョンが混在しないよう、バージョニング機能がサポートされており、安心してデプロイできます。

この記事を通じて、AI Agentをプロダクトで活用するためには、AIや機械学習の専門知識だけでなく、Durable Executionの基盤構築、認証認可、評価、監視など、従来のソフトウェアエンジニアリングにおける多くの挑戦があることがわかります。これらは、新人エンジニアにとっても未来の技術の「当たり前」を共に作り上げる絶好の機会となるでしょう。

引用元: https://zenn.dev/layerx/articles/b5f6cf6e47221e

2025年、自律的にタスクを計画・実行する「AIエージェント」の登場は、ソフトウェア開発の世界に大きなインパクトを与えています。ラクス社では、この技術を自社サービスに取り入れ、進化させるために、R&D活動で「垂直型AIエージェント」の調査・研究に取り組みました。

AIエージェントは、ユーザーの指示に基づいて動く従来の生成AIやAIアシスタントとは異なり、与えられた目標に対して自ら計画を立て、状況に応じて判断し行動できるAIです。特に「垂直型AIエージェント」は、特定の業界や業務(ドメイン)に特化することで、高い専門性を発揮します。これにより、専門知識が必要な高度な分析や判断の支援、ルールに基づいた定型業務の自動化、大量データからの予測と最適化といった領域で大きな価値を提供できるため、ラクス社は自社SaaSへの導入を現実的に進めるため、この垂直型に注目しました。

R&D活動では、AIエージェントの自律レベルを「Assist(支援)」「Copilot(副操縦士)」「Autonomous(自律型)」の3段階、さらに6つの機能パターンに分類し、導入のイメージを具体化しました。また、LLM Core(大規模言語モデルの核となる部分)やRAG(外部知識を参照して回答を生成する技術)、外部ツール連携など、AIエージェントを構成する8つの主要な技術要素を整理しました。

「楽楽勤怠」サービスでのPoC(概念実証)では、GoogleのAgent Development Kit (ADK) を使ってシフト自動作成機能を実装し、その可能性を探りました。簡単なワークフローであれば比較的容易に実装できることが確認できた一方、入力データが増えると処理速度が遅くなる性能課題や、より複雑なシフト作成には複数のAIエージェントが連携する「マルチエージェント」構成の必要性、そして本番運用に向けたセキュリティや保守性の重要性といったリアルな課題も明らかになりました。

AIエージェントを実際のサービスに導入する際には、「処理が遅い、精度が低い」といった性能の壁、「API利用料が高額になる」というコストの壁、「プロンプトインジェクション攻撃への対処」などのセキュリティの壁が存在します。これらを乗り越えるためには、モデルの最適化、RAGの精度向上、軽量モデルの活用、不適切な入出力を防ぐガードレール機能、人間の確認・介入といった対策が不可欠です。

今回のプロジェクトで得られた貴重な知見は、「垂直型AIエージェント実装ナレッジベース」として社内のGitHub Wikiにまとめられ、全エンジニアがアクセスできるよう公開されました。これにより、各プロダクトへのAIエージェント導入を加速させ、組織全体の技術力向上を目指しています。ラクス社は今後もこのようなR&D活動を続け、最新技術をSaaSサービスに反映させ、お客様に新たな価値を提供していくとしています。

引用元: https://tech-blog.rakus.co.jp/entry/20250930/AIagent

LLM(大規模言語モデル)を活用した開発では、これまで「プロンプトエンジニアリング」が注目されてきました。これは、LLMに効果的な指示(プロンプト)を与えることで、望む結果を引き出す技術です。しかし、近年では、より高度な「コンテキストエンジニアリング」が重要視されています。

コンテキストエンジニアリングとは、LLMが推論に利用できる「コンテキスト(文脈や情報)」全体を最適に管理する技術のことです。単にプロンプトの言葉を選ぶだけでなく、システムプロンプト、ツール、過去の会話履歴、外部データなど、LLMに与えるあらゆる情報を、望ましい挙動を安定して引き出すためにどのように構成すべきかを考えます。

なぜコンテキストエンジニアリングが重要なのでしょうか? LLMは、人間と同じように、与えられる情報量が増えすぎると集中力が散漫になり、重要な情報を見落としたり、記憶力が低下したりする「コンテキスト腐敗(Context Rot)」という現象が起こります。これは、LLMの基礎となっているTransformerという仕組みの特性によるもので、コンテキストの長さが長くなるほど、処理に必要な計算量が爆発的に増え、パフォーマンスが低下する傾向があるためです。つまり、LLMにとってコンテキストは有限で貴重なリソースなのです。

効果的なコンテキストを構築するためには、以下の要素が重要です。

  1. システムプロンプト: LLMへの指示は、具体的すぎず、かといって曖昧すぎない「適切な抽象度」で、明確かつ簡潔に記述します。情報のセクション分け(例:XMLタグやMarkdownヘッダー)も効果的です。
  2. ツール: LLMが外部と連携して情報を取得したり操作したりするためのツールは、機能が明確で重複がなく、効率的な情報取得を促すように設計します。
  3. 例(Few-shot prompting): 複雑な挙動を期待する場合は、多様で代表的な「成功例」をプロンプトに含めることで、LLMに期待する動作を効率的に教えることができます。

また、長期的なタスクでは、コンテキストを動的に管理する技術も不可欠です。

  • Just in Time Retrieval: 必要な情報を事前に全て読み込むのではなく、エージェントがツールの使用を通じて、必要な時に必要な情報だけを動的に取得するアプローチです。これは、人間がファイルシステムやブックマークを使って情報を整理し、必要な時に参照するのと同じような考え方です。
  • コンパクション(Compaction): 会話履歴が長くなりすぎた場合に、その内容を要約し、重要な情報だけを新しいコンテキストとして引き継ぐことで、過去の情報を忘れずに新しい会話を継続できます。
  • 構造化されたメモ取り(Structured Note-taking): エージェント自身がコンテキストウィンドウの外にメモ(例:TODOリストや進行状況)を保存し、後で参照することで、コンテキストの限界を超えた長期的な記憶を持たせることが可能になります。
  • サブエージェントアーキテクチャ: 複雑なタスクを、専門分野を持つ複数の「サブエージェント」に分割して実行させ、各サブエージェントは詳細な作業を行い、その要約だけをメインのエージェントに報告します。これにより、全体として効率的にタスクを進めることができます。

コンテキストエンジニアリングの目的は、LLMの限られた注意力という予算の中で、「望ましい結果を出す可能性を最大化する、高信号な(重要な)トークンの最小セット」を見つけ出すことです。モデルの能力が向上しても、コンテキストを貴重なリソースとして賢く扱うという原則は、信頼性の高いAIエージェントを構築する上で常に中心的な考え方となるでしょう。

引用元: https://www.anthropic.com/engineering/effective-context-engineering-for-ai-agents

Joyful Calamityから、新作ホラーゲーム『The Way hOme』が発表されました。プレイヤーは「怪異が見える猫」として、日本の事故物件を探索し、怪異を除霊しながら飼い主の霊魂を探します。特徴は、猫ならではの「見つめる」「引っ掻く」「嗅ぐ」といったアクションを駆使して進めるユニークなゲームプレイです。Unreal Engine 5で描かれるフォトリアルなグラフィックにも注目。2025年10月30日にPCとコンソール向けに発売予定です。

引用元: https://news.denfaminicogamer.jp/news/250930a

(株式会社ずんだもんは架空の登場組織です)