マジカルラブリー☆つむぎのピュアピュアA.I.放送局 podcast 20251215
内容紹介
OpenAI are quietly adopting skills, now available in ChatGPT and Codex CLI、🐸 なぜ今、Agentic Workflowなのか - Graflowの設計思想、OpenAI’s GPT-5.2 is now in public preview for GitHub Copilot
出演者
関連リンク
OpenAIがAnthropicのSkills機構を取り入れ、ChatGPTのCode InterpreterとCodex CLIにスキルサポートを静かに導入しました。スキルはMarkdownファイルとリソースを含むフォルダで構成され、ファイルシステムへのアクセス能力を持つLLMツールであれば利用可能です。
ChatGPTでは/home/oai/skillsフォルダにアクセスし、PDFやdocxなどのファイルを処理できます。PDF処理では、レイアウトやグラフィック情報を維持するため、PDFをPNG画像に変換してGPTモデルに渡すアプローチを採用しています。
Codex CLIでは、~/.codex/skillsフォルダ内のスキルを認識し、--enable skillsオプションで利用できます。スキルを利用してDatasetteプラグインを自動生成する例も紹介されています。
これらの動きは、AIエージェントの機能拡張において、軽量なスキル定義が重要であることを示唆しており、Agentic AI Foundationによる正式なドキュメント化が期待されます。
引用元: https://simonwillison.net/2025/Dec/12/openai-skills/
本稿は「現場で使えるAIエージェントワークフロー」を目指すオーケストレーションエンジンGraflowの設計思想を、既存フレームワークとの対比を交えて解説しています。著者はエージェント導入の現実課題(本番での挙動制御、並列処理・水平スケール、Human-in-the-Loop(HITL)、長時間処理の再開、グラフの可読性悪化)を挙げ、これらを解決するために「Type B:Agentic Workflow(構造化オーケストレーション+局所的自律性)」に特化する方針を示しています[7]。GraflowはSuperAgentの内部推論をワークフローで細かく表現せず、SuperAgentを「Fatノード」として外部専門フレームワーク(Google ADK、PydanticAI、SmolAgents等)に委譲する責務分離戦略を取る点を強調しています[7][4]。
| 設計上の特徴と主要機能は次の通りです。1) 実行時に動的タスク生成・分岐を行えるState Machine風の制御(context.next_task/next_iteration/goto)により、事前に全分岐を定義する必要を排し柔軟なループ・ファンアウトを実現する[7]。2) ユーザ制御のcheckpoint/resumeで長時間処理の途中再開が可能(checkpointはS3/ローカル/Redis等に保存)[7]。3) HITLとcheckpointの組合せで承認待ちを非同期に扱い、タイムアウト時に自動checkpointを作ることで人の回答後に再開できる仕組みを提供する[7][6]。4) Redisベースの分散ワーカーによる水平スケールと、ローカル→分散への切替が簡単な実行バックエンドを備える[7]。5) LLM呼び出しは用途に応じて二通りのインジェクションを提供—複雑な推論はinject_llm_agent(SuperAgentラップ)、単発呼び出しはinject_llm_client(軽量・マルチモデル)—でコストと複雑度を使い分けられる[7]。6) DAG的演算子DSL(»、 | )とタスク内での動的遷移を組み合わせた「DAG × State Machine」ハイブリッド設計により静的可読性と動的柔軟性を両立している[7]。さらに、Dockerハンドラー、TypedChannelによる型安全なタスク間データ共有、並列グループごとの細粒度エラーポリシー(Strict / Best-effort / At-least-N / Critical / カスタム)やLangFuse/OpenTelemetry統合によるトレーシングとランタイムグラフエクスポートなど、プロダクション運用で必要な機能が揃っています[7][8]。 |
比較として、LangGraphはSuperAgentもワークフローも自前実装するフルスタック路線で、グラフの事前コンパイルや急峻な学習曲線、APIの流動性が問題視されている点を指摘し、Graflowはワークフローに専念して「ベストツールを組み合わせる」アプローチを採るとしています[7][3]。実用例やOSS公開・協力募集(2026年1月公開予定)についても言及されています[7]。
新人エンジニア向けの要点整理:
- 目的:現場で制御できてスケールするAIワークフロー(Agentic Workflow)を実装するためのライブラリ設計。SuperAgentは外部に任せ、ワークフロー制御に専念する点がキモ[7][4]。
- 使い分け指針:複雑なマルチターン/ツール呼び出しはSuperAgent(inject_llm_agent)、単発処理はLLMClient(inject_llm_client)を使う[7]。
- 実装ポイント:静的に見やすいDAGを演算子で定義しつつ、タスク内部でnext_task等を呼んで動的に遷移することで柔軟性を担保する設計を意識すると理解しやすい[7]。
- 運用上の必須機能:checkpoint/resume、HITL、分散ワーカー、トレーシング(OTEL/LangFuse)はプロダクション耐性に直結するため優先して実装・評価すべき機能である[7][8]。
(注)本要約は記事本文の技術的主張・設計方針を整理しており、原文中のコード例や図は簡潔化しています[7]。
引用元: https://zenn.dev/myui/articles/64f31faaf1488c
OpenAIの最新モデルGPT-5.2がGitHub Copilotのプレビュー公開を開始しました。GPT-5.2は、長いコンテキストとフロントエンドUI生成に強みを持つモデルです。Copilot Pro, Pro+, Business, Enterpriseの契約者は、Visual Studio CodeやGitHub Mobileなど、様々な環境でモデルを選択して利用できます。Enterprise/Businessプランでは管理者が有効化する必要があります。Pro/Pro+プランでは、モデルピッカーから選択し、確認することで利用可能です。APIキーを利用することも可能です。
引用元: https://github.blog/changelog/2025-12-11-openais-gpt-5-2-is-now-in-public-preview-for-github-copilot/
VOICEVOX:春日部つむぎ