株式会社ずんだもん技術室AI放送局

AIやテクノロジーのトレンドを届けるPodcast。平日毎朝6時配信。朝の通勤時間や支度中に情報キャッチアップとして聞いてほしいのだ。

マジカルラブリー☆つむぎのピュアピュアA.I.放送局 podcast 20260427

2026年04月27日

MP3ファイルをダウンロード

内容紹介

agents-cliの中身を見てみよう、DeepSeek V4 Preview Release DeepSeek API Docs、PDF4LLM:LLM前処理ドキュメント処理レイヤー、ニコニコ動画で主が言った「AIがコメントする機能を試しにONにしてます」に対してAIが「そんな機能あるんか」と言って…それに人間のツッコミが入ってて面白かった

出演者

春日部つむぎ
春日部つむぎ

関連リンク

本記事は、2026年4月に開催された「Google Cloud Next ‘26」で発表された新ツール「agents-cli」についての解説です。AIエージェントの開発ライフサイクル(実装・評価・デプロイ)を統合的に管理するためのコマンドラインインターフェース(CLI)として登場しました。

1. agents-cliとは

AIエージェントの開発プロセスを効率化するためのツールです。最大の特徴は、人間が操作することに加え、Gemini CLIやClaude Codeといった「コーディングエージェント(AI)」がこのツールを介して開発を進められるよう設計されている点にあります。AIがAIエージェントを開発しやすくするための「スキル」が提供されているのが、非常に現代的なアプローチです。

2. 主な提供機能とワークフロー

開発の各フェーズに対応したコマンドが用意されており、新人エンジニアの方でも直感的にプロセスの全体像を把握できます。

  • プロジェクト作成(scaffold): Python、Go、Javaなどの言語を選択して、エージェントの雛形を即座に作成できます。後からデプロイ先の設定を追加するなどの拡張性も備えています。
  • 品質管理(lint / run / eval):
    • lintによる静的解析(現在はPython中心)でコードの品質を担保します。
    • runコマンドで、ローカルやクラウド上のエージェントに対して直接プロンプトを送信し、動作確認が可能です。
    • evalコマンドでは、あらかじめ用意したテストデータに基づき、エージェントの回答精度を自動で評価できます。
  • デプロイ(deploy): Cloud RunやGKE(Google Kubernetes Engine)へのデプロイをサポートしています。特にGKEの場合は、Terraformを用いたインフラ構成まで管理される仕組みとなっています。

3. エンジニアにとってのメリット

著者が高く評価しているのは、各コマンドが細かく分割されている「モジュール性」です。 すべての工程をこのツールに任せる必要はなく、「評価プロセスだけ利用したい」「デプロイは既存のCI/CDで行う」といった、現場の状況に合わせた部分的な導入が可能です。

まとめ

agents-cliは、これからのAIエージェント開発における標準的なワークフローを提示しています。特に、開発プロセスそのものにAIを組み込む「AIによる開発」を強く意識した設計は、今後のエンジニアリングのあり方を示唆する興味深いツールと言えるでしょう。

引用元: https://zenn.dev/makocchan/articles/whats_agents_cli

LLM(大規模言語モデル)界に大きな衝撃を与えたDeepSeek社から、最新モデル「DeepSeek-V4」のプレビュー版がリリースされました。今回のアップデートの最大の目玉は、100万トークン(1M)という極めて長い文脈長(コンテキストウィンドウ)が標準化され、かつ驚異的なコストパフォーマンスで提供される点にあります。

今回のリリースでは、用途に応じて2つのモデルが展開されています。 1つ目は、フラグシップモデルの「DeepSeek-V4-Pro」です。総パラメータ数1.6兆(アクティブパラメータ49B)を誇り、コーディングや数学、STEM分野の推論能力において、既存のオープンソースモデルを圧倒し、Gemini-1.5-Proなどの主要な商用クローズドモデルに匹敵する性能を実現しています。 2つ目は、高速・軽量版の「DeepSeek-V4-Flash」です。総パラメータ数284B(アクティブパラメータ13B)ながら、Proモデルに近い推論能力を維持しており、より高速なレスポンスと低価格なAPI利用を求めるエンジニアに最適な選択肢となります。

技術的な革新として、独自の「DSA(DeepSeek Sparse Attention)」とトークン単位の圧縮技術が導入されました。これにより、メモリと計算コストを劇的に削減しつつ、膨大な情報を一度に処理できる「100万トークン」の壁を突破しています。新人エンジニアの皆さんにとっては、大規模なプロジェクトのソースコード全体や、数冊分の技術書を一度にAIに読み込ませて、文脈を完璧に理解した上でのサポートを受けられるようになる、という非常に強力な武器になります。

また、本モデルは「AIエージェント」としての利用に特化した最適化が行われています。Claude CodeやOpenClawなどの主要なツールとシームレスに統合されており、DeepSeek社内でも既に自社の開発エージェントとして実戦投入されているとのことです。

APIは既に利用可能で、OpenAIやAnthropicの形式をサポートしているため、既存のコードのモデル指定を書き換えるだけで簡単に試すことができます。なお、旧モデル(deepseek-chat等)は2026年7月24日に廃止予定となっているため、今のうちからこの強力なV4への移行を検討しておくのが賢明です。オープンソースの力でAIの限界を押し広げる、エンジニアにとって非常にワクワクするニュースです。

引用元: https://api-docs.deepseek.com/news/news260424

PDFは本来、印刷や表示のための「描画命令」の集まりであり、コンピュータ(LLM)が文脈を理解するための構造的なドキュメントではありません。そのため、単純にテキストを抽出するだけでは、段組の読み順が狂ったり、表がただの数字の羅列になったりしてしまい、RAG(検索拡張生成)などの精度を著しく下げてしまいます。

「PDF4LLM」は、この問題を解決するための「LLM前処理レイヤー」として設計されています。主な役割は、PDFから「人間が読む順序」を再構築し、見出し、リスト、表、画像などの構造を維持したまま、LLMが理解しやすい「クリーンなMarkdown」に変換することです。

主なメリットと機能は以下の通りです:

  1. 構造の保持: サイドバーや脚注を考慮した読み順の解決、表の再構築、階層構造(見出しやコードブロック)の維持を行います。
  2. 圧倒的なコスト削減: 生のPDFページをビジョンモデル(VLM)に読み込ませて解析する手法と比較して、1,000ページあたりのコストを数十分の一から百分の一以下(例:14.40ドルから0.06ドル)にまで抑えることが可能です。
  3. 多様な実行環境: Python向けの「PyMuPDF4LLM」に加え、.NET版も提供されており、さらにJavaScript(WASM)版の公開も予定されています。

また、ドキュメントの表示と解析を統合する「WebViewer 4LLM」も大きな特徴です。これは、LLMが生成した回答の根拠となるテキストが、元のPDFのどこにあるのかをブラウザ上で直接ハイライト表示できる「AIサイテーション(引用)」機能を実現します。これにより、法務や金融などの「根拠」が重視される業務において、AIの回答に対する高い信頼性と追跡可能性(トレーサビリティ)を確保できます。

新人エンジニアにとって、RAG構築時の「入力データの質」は精度向上における最大の鍵です。PDF4LLMのような専門の前処理ツールを導入することで、モデルの推論やデータのチャンク化が容易になり、効率的かつ高性能なAIアプリケーションの開発が可能になります。

引用元: https://qiita.com/jamie-lemon/items/1b4a5c771cd8c1638915

ニコニコ動画の新機能「AIキャラクターによるコメント」で起きた、微笑ましい珍事が話題です。投稿者が「AIコメントをONにした」と紹介すると、AI自身が「そんな機能あるんか」と反応。すかさず人間が突っ込むという、AIが図らずもボケを担当する構図が生まれました。AIが場を盛り上げ、人間同士の交流を促す「潤滑油」として機能する好例です。技術が提供する新しい遊びの形として、開発のヒントになる事例と言えます。

引用元: https://togetter.com/li/2689432

VOICEVOX:春日部つむぎ