株式会社ずんだもん技術室AI放送局 podcast 20260423
内容紹介
Introducing workspace agents in ChatGPT、実践ハーネスエンジニアリング:TAKTで実現するAIエージェント制御 / Practical Harness Engineering: AI Agent Control Enabled by TAKT、Coding Models Are Doing Too Much、OpenAIが画像生成AI「ChatGPT Images 2.0」をリリース、ユーザー作品が続々登場 / X
出演者
youtube版(スライド付き)
関連リンク
OpenAIは、従来のGPTsを大幅に進化させた「Workspace Agents」をChatGPTに導入しました。これは単なるチャットボットではなく、組織内でのチーム利用を前提とした「共有エージェント」であり、複雑なタスクや長時間にわたるワークフローを自動で実行する能力を持っています。
新人エンジニアの方々にとって特に注目すべき点は、このエージェントが「自律性」と「連携力」を兼ね備えていることです。Workspace AgentsはCodexを基盤としてクラウド上で動作するため、ユーザーがブラウザを閉じていてもバックグラウンドで処理を継続できます。例えば、毎週金曜日にデータを抽出してグラフを作成する、あるいはSlack上のフィードバックを監視して自動でチケットを発行するといった、エンジニアの「ちょっとした手間」を自動化する強力な味方になります。
技術的な特徴として、以下の要素が挙げられます。
- 高度な連携機能: 外部ツールやAPIとの連携が容易で、ファイルの操作、コードの実行、さらには過去のやり取りを記憶する「メモリ機能」を搭載しています。
- 自動実行とスケジュール: Slack内でのリクエストに応答したり、スケジュールに基づいて定期的にタスクをこなしたりすることが可能です。
- 安全な管理体制: エンタープライズ向けの管理機能が充実しており、管理者はエージェントの権限設定、利用状況の分析、プロンプトインジェクション攻撃への対策などを一元管理できます。
具体的には「ソフトウェアのリクエストがポリシーに準拠しているか確認し、ITチケットを発行するエージェント」や「コードレビューの補助を行うエージェント」などの構築が想定されています。これまではエンジニアが個別にスクリプトを書いて繋ぎ込んでいたような作業が、ChatGPT上でワークフローを説明するだけで構築できるようになります。
現在、ChatGPT Business、Enterprise、Eduなどのプランでプレビュー公開されており、2026年5月6日までは無料で利用可能です。自分たちの開発プロセスやチーム内の定型業務をこのエージェントに任せることで、エンジニアはよりクリエイティブで価値の高い設計や実装に集中できる環境を整えられるようになります。未来の「同僚」としてのAIエージェントを、ぜひ自身のワークフローに取り入れてみてください。
引用元: https://openai.com/index/introducing-workspace-agents-in-chatgpt
- 実践ハーネスエンジニアリング:TAKTで実現するAIエージェント制御 / Practical Harness Engineering: AI Agent Control Enabled by TAKT
本資料は、AIエージェントを実務で安定して運用するための新しい考え方「ハーネスエンジニアリング」と、それを具体化するOSSツール「TAKT(タクト)」について解説した登壇資料です。新人エンジニアの方にとっても、これからの「AIと共存する開発」の指針となる内容となっています。
1. ハーネスエンジニアリングとは
「ハーネス(馬具・安全ベルト)」という言葉が示す通り、AIエージェントという強力だが制御が難しい存在を、安全かつ意図通りに動かすための「制御基盤(枠組み)」を構築する技術を指します。AIに丸投げするのではなく、人間がエンジニアリングの力でAIの振る舞いを規定し、品質を担保しようとするアプローチです。
2. なぜ「制御」が必要なのか
最新のAI(LLM)は非常に高い能力を持っていますが、出力のばらつきや、複雑なタスクにおける「迷子」状態、さらにはコード品質の不安定さといった課題があります。特に大規模なシステム開発では、単発のプロンプト(指示)だけでは限界があり、AIが持つ「スキル」を整理し、部品化して管理する必要が出てきます。
3. TAKTによる解決策:関心の分離(SoC)
本資料で紹介されているOSS「TAKT」は、以下の観点でAIエージェントを制御します。
- プロンプトの部品化: 複雑な指示を「関心の分離(Separation of Concerns)」に基づいて分解し、プロンプトを再利用可能な「部品」として育てます。
- オーケストレーション: 部品化したスキルをいつ、どのように組み合わせるかを制御します。
- 品質保証の自動化: 例えば、AIが出力したコードに対して別のAIがレビューを行い、フィードバックループを回すことで、人間が介在しなくても一定の品質を維持できる仕組みを構築します。
4. 概要と制約
TAKTは、AIエージェントのスキル管理を「ソフトウェアエンジニアリング」のプラクティス(関心の分離など)に持ち込むためのフレームワークです。
- 主な役割: 煩雑になりがちなプロンプト管理の解決、AIによるレビュー自動化、一貫した動作の実現。
- 制約・前提: 本ツールは「AIにすべてを任せる」ためのものではなく、あくまでエンジニアが「AIの能力を最大限に引き出すための構造」を設計・維持するためのものです。
5. 新人エンジニアへのメッセージ
これからのエンジニアには、コードを書く力に加えて「AIにどのように仕事をさせ、その品質をどう管理するか」という設計能力が求められます。ハーネスエンジニアリングは、まさにその核となる考え方です。AIを「魔法の杖」としてではなく、「制御すべき高度なコンポーネント」として捉えることで、より堅牢なシステム開発が可能になります。
引用元: https://speakerdeck.com/nrslib/practical-harness-engineering-ai-agent-control-enabled-by-takt
近年のAIプログラミングツール(Cursor, GitHub Copilot, Claude Code等)の普及により、AIがコードに触れる機会が激増しています。しかし、多くのエンジニアが「1行のバグ修正を頼んだだけなのに、関数全体が書き換えられ、無関係な変数名まで変更されてしまった」という経験をしています。本記事では、この現象を「Over-Editing(過剰編集)」と定義し、その実態と解決策を技術的な視点から詳細に調査しています。
1. Over-Editingがなぜ問題なのか
Over-Editingとは、修正が機能的には正しくても、必要最小限の修正を超えてコードの構造を大幅に変更してしまう現象です。これは現場のエンジニアにとって大きな弊害となります。
- レビュー負荷の増大: 巨大なDiff(差分)が発生し、何が本質的な変更か理解するのが困難になります。
- コードの不透明化: チームが理解していた既存のコードが、AIによって見覚えのないロジックに置き換わり、保守性が低下します。
2. 過剰編集をどう測るか:2つの指標
記事では、モデルの「忠実さ」を測るために以下の指標を導入しています。
- トークン単位のレーベンシュタイン距離: 文字数ではなく、プログラミング言語の「トークン」単位で差分を計算し、構造的な変化量を測定します。
- 認知複雑度(Cognitive Complexity): ネストや論理演算子の複雑さを数値化します。修正によって不要にコードが複雑になっていないかを判定します。
3. モデル別の傾向:GPT vs Claude
最新モデルの比較では、興味深い結果が出ています。
- GPT-5.4: 推論性能は高いものの、最も過剰編集を行いやすく、不必要な書き換えを大量に発生させる傾向があります。
- Claude Opus 4.6: 最も高い正答率を出しつつ、修正差分を最小限に抑える「極めて忠実なエディタ」としての性能を示しました。
- 推論モデルの特性: 推論モデル(Reasoning Models)は、デフォルトでは「より良いコードにしよう」と深読みして過剰編集しがちですが、「元のコードを維持して」というプロンプトの指示には非常に敏感に反応し、劇的に改善します。
4. 解決策:強化学習(RL)による改善
「最小限の修正」をモデルに学習させる手法も検証されました。
- SFT(教師あり学習): 特定の修正パターンに過学習しやすく、未知のバグに対応できなくなる「破滅的忘却」が起きました。
- RL(強化学習): 「正解であること」と「差分が小さいこと」を報酬として与える手法が最も効果的でした。モデル本来のコーディング能力を落とさずに、修正スタイルだけを「最小限」に矯正することに成功しています。また、LoRA(低ランク適応)を用いた軽量なチューニングでも十分に効果があることが示されました。
結論
AIによるコーディング支援は、単に「動くコードを生成する」段階から、「人間のエンジニアがレビューしやすく、既存の秩序を守る」段階へと進化が求められています。新人エンジニアの皆さんも、AIに修正を依頼する際は「IMPORTANT: Preserve the original code as much as possible(重要:可能な限り元のコードを維持して)」という一言を添えるだけで、レビューしやすいスマートな差分を得られるようになるでしょう。
引用元: https://nrehiew.github.io/blog/minimal_editing/
OpenAIは2026年4月21日、新型画像生成AI「ChatGPT Images 2.0」をリリースしました。生成前に「考える」プロセスを導入したことで複雑な指示の理解力が向上し、2K解像度での出力やキャラクターの一貫性保持、日本語描画の精度改善を実現しています。ずんだもん発案者の榊正宗氏による活用など、SNSではプロからも高く評価されており、エンジニアにとっても表現の幅を広げる強力なツールとなりそうです。
引用元: https://x.com/i/trending/2046613319839014921
(株式会社ずんだもんは架空の登場組織です)