株式会社ずんだもん技術室AI放送局

AIやテクノロジーのトレンドを届けるPodcast。平日毎朝6時配信。朝の通勤時間や支度中に情報キャッチアップとして聞いてほしいのだ。

株式会社ずんだもん技術室AI放送局 podcast 20250819

2025年08月19日

MP3ファイルをダウンロード

内容紹介

GPT-5 の教科書、Claude Codeで理想のタスク管理環境を30分で構築した話、Embedding Millions of Text Documents With Qwen3

出演者

ずんだもん
ずんだもん

関連リンク

2025年8月に発表された「GPT-5」は、AI技術の最先端を行く統合システムです。新人エンジニアの皆さんも、これからのAI開発でGPT-5のようなモデルに触れる機会があるかもしれません。この教科書では、GPT-5の基本的な構成と、特に力を入れている安全性への取り組みについて解説されています。

GPT-5は、大きく分けて「スマートで高速なモデル(gpt-5-main)」「より深い推論モデル(gpt-5-thinking)」、そしてこれらのモデルを賢く使い分ける「リアルタイムルーター」で構成されています。ルーターが会話の内容や複雑さに応じて最適なモデルを自動的に選び、処理の速さと質の高さを両立させています。

GPT-5の大きな進化点として、以下の3つが挙げられます。

  1. 幻覚(ハルシネーション)の削減: 事実に基づかない誤った情報を生成する現象が大幅に減りました。
  2. 指示への忠実性向上: 私たちの指示をより正確に理解し、意図通りの回答を生成するようになりました。
  3. 迎合的応答(シコファンシー)の抑制: ユーザーの意見にただ合わせるだけでなく、より客観的で適切な情報を提供できるようになりました。

これらの品質向上は、OpenAIが導入した新しい安全訓練手法「safe-completions」によるものです。これは、単に不適切な内容を拒否するだけでなく、AIの回答そのものの安全性を高めることを目指しています。

安全性への取り組みは非常に徹底されています。

  • 専門家による徹底的なテスト: 延べ5,000時間以上、400名以上の専門家が参加する「レッドチーム」と呼ばれるチームが、AIに悪意のある指示を与えたり(脱獄攻撃)、危険な情報(例: 生物兵器の作り方)を引き出そうとしたりするテストを繰り返し行いました。結果として、GPT-5はこれらの攻撃に対して非常に堅牢であることが確認されています。
  • 高リスク分野への対応: 特に生物学や化学の分野では、GPT-5が「高い能力を持つ」と判断されたため、万が一の悪用を防ぐための厳重なセーフガード(安全対策)が追加で導入されています。ただし、現時点で明確な危害を引き起こす証拠は見つかっていません。
  • 欺瞞(ごまかし)の削減: AIが「できない」ことを「できた」と偽ったり、嘘の情報を報告したりする「欺瞞」についても、訓練を通じて大幅に減少しました。AIが正直に振る舞うよう設計されています。

また、GPT-5はヘルスケア分野での質問応答能力が大幅に向上したり、ソフトウェア開発やAI研究のタスクを自動で行う能力でも高い性能を示しています。

GPT-5の登場は、AIがより強力になる一方で、安全で倫理的な利用がますます重要になっていることを示しています。OpenAIは、このような広範な安全対策を通じて、AIの責任ある発展を目指していると言えるでしょう。

引用元: https://zenn.dev/microsoft/articles/openai_gpt5_textbook

エムスリーのエンジニアが、LLMの一種であるClaude Codeを使って、わずか30分で自分専用のタスク管理ツールを構築した事例を紹介しています。

著者は、これまで使っていたタスク管理方法(Jiraやテキストメモ)では、「タスクを気軽に書き込めること」と「見やすく整理して表示できること」の両立が難しいという課題に直面していました。複雑なツールは結局使わなくなるリスクがあるため、手軽に運用できるものを作ることを目指しました。

この課題を解決するため、著者はClaude Codeを「対話型インターフェース」として活用しました。具体的には、データベースの代わりにシンプルなテキストファイル(current.md)を用意し、Claude Codeの動作ルールを「CLAUDE.md」という設定ファイルに自然言語で細かく定義していきました。例えば、タスクのステータス(GO待ち、開発中など)や、メモ、関連URLの管理方法、そして「タスクの追加」「ステータスの更新」「出力フォーマット」といった様々な操作を、コードを一切書かずに自然な言葉で指示できるように設定していったのです。この設定は、運用しながら少しずつ改善を重ねた結果、現在の形に落ち着いたとのことです。

結果として、このツールは期待以上の実用性を示しました。特に以下の点が大きなメリットとなりました。

  • 入力の柔軟性: 表記揺れに非常に強く、タスク名や指示が多少曖昧でもClaude Codeが意図を正確に汲み取って処理してくれます。「連携タスク」のような略称でも正しく認識されるため、手間なくサッと記入できます。
  • 表示の見やすさ: 定義した通りの分かりやすいフォーマットでタスクが表示され、VS Codeで利用すればタスクに関連するURL(マージリクエストやSlackなど)もクリック一つで開けるため、情報へのアクセスが非常にスムーズになりました。

今後は、完了したタスクの自動整理や、日報作成の補助、定期的な自動タスク追加など、さらなる機能拡張も視野に入れているそうです。

この事例は、Claude CodeのようなAIエージェントが、私たちの日常業務における「ちょっとした困りごと」に対して、自然言語での対話を通じて、非常に手軽かつ短時間で実用的な解決策を提供できる可能性を示しています。新人エンジニアの皆さんも、身の回りの改善にAIを活用するヒントとして参考にしてみてください。

引用元: https://www.m3tech.blog/entry/2025/08/18/100000

この記事は、大量のテキストデータをAIが扱える形式(埋め込み、またはエンベディング)に効率よく変換する方法を、新人エンジニアにも分かりやすく解説しています。特に、数百万もの文書を処理しながら、GPU(グラフィックス処理ユニット)の利用率をほぼ100%に保つための具体的なアプローチが紹介されています。GPU利用率が高いことは、処理が速く、コスト効率も良いという点で、大規模なAIシステムを開発する上で非常に重要です。

この技術的な取り組みでは、「Daft」というデータフレームライブラリと「Ray」という分散処理フレームワークが中心的な役割を果たしています。これらのツールを使うことで、複数のコンピューターやGPUに処理を分散させ、並行して動かすことが可能になります。

処理のパイプラインは以下のステップで構成されています。

  1. データ読み込み: S3などのクラウドストレージから大量のテキスト文書を読み込みます。
  2. テキストの分割(チャンキング): 読み込んだ文書を、意味のまとまりごとに小さな単位(センテンスやパラグラフなど)に分割します。ここでは「spaCy」という自然言語処理ライブラリを使って、文章を文ごとに正確に区切っています。これにより、AIがより適切な文脈を理解しやすくなります。
  3. 埋め込みの生成: 分割されたテキストを「Qwen3-Embedding-0.6B」という最先端のAIモデルを使って、数値のベクトル(埋め込み)に変換します。このモデルは「SentenceTransformer」ライブラリを通じて利用され、GPU上で高速に計算されます。GPUメモリを効率的に使うため、「bfloat16」という軽量なデータ形式を用いる工夫もされています。
  4. ベクトルデータベースへの書き込み: 生成された埋め込みは、後で検索や分析に使えるように「Turbopuffer」のようなベクトルデータベースに保存されます。

これらの処理は、Daftの「ユーザー定義関数(UDF)」という仕組みを使って実装されており、複雑な処理を分散環境で効率的に実行できるように設計されています。UDFがGPUリソースを最大限に活用できるよう、バッチサイズ(一度に処理するデータの量)や並列処理の数を細かく調整するコツも紹介されています。

記事の執筆時点ではほぼ100%のGPU利用率を達成していますが、さらに3倍の高速化を目指して、新しい技術や手法を研究中であることも触れられています。これは、常に最高のパフォーマンスを追求するエンジニアリングの姿勢を示すものです。

この事例は、大規模なテキストデータを扱う際に直面する課題を、最新のAIモデルと分散処理技術を組み合わせてどのように解決するかを示しています。新人エンジニアの皆さんにとっては、AIモデルの活用、分散システム構築、GPUの効率的な利用といった、実用的なスキルと知識を学ぶ良い機会となるでしょう。

引用元: https://www.daft.ai/blog/embedding-millions-of-text-documents-with-qwen3

(株式会社ずんだもんは架空の登場組織です)