株式会社ずんだもん技術室AI放送局 podcast 20260120
内容紹介
LINE iOSアプリ開発を高速化するClaude Code基盤の設計思想、RTX5090 2台構成の機械学習用PCを自作する - A Day in the Life、従業員1日の活動履歴を全部AIに投げて働き方を指示してもらう
出演者
youtube版(スライド付き)
関連リンク
LINEは、大規模なiOSアプリ開発においてAIコーディングエージェント「Claude Code」を最大限に活用するための設計思想を公開しました。大規模プロジェクトでは、AIが膨大なファイルやビルド時間に圧倒され、効率が低下するという課題があります。これを解決し、AIに人間と同等のスムーズな開発サイクル(イテレーション)を実行させるための4つのポイントが示されています。
-
コンテキスト(情報量)の最適化 AIが一度に理解できる情報には限りがあります。全てのルールを初期設定ファイル(CLAUDE.md)に詰め込むと、すぐに限界が来てしまいます。そこで、特定のファイルパスを操作する時だけルールを読み込む仕組みや、必要な時だけ呼び出す「Skills」機能を活用し、AIに与える情報を最小限かつ適切に絞り込む工夫をしています。
-
開発イテレーションの自動化と「Subagent」の活用 大規模アプリでは全体のビルドに非常に時間がかかります。AIが不用意にフルビルドを開始してしまわないよう、メモリファイルで「モジュール単位のビルド」を優先するよう指示しています。また、ビルドやテストといった特定のタスクを「Subagent」として切り出すことで、大量のビルドログでメインの会話が埋もれてしまう(コンテキストを汚染する)のを防いでいます。
-
従来手法(CLI/スクリプト)との組み合わせ AIは柔軟ですが、複雑な設定ファイル(Xcodeのプロジェクト設定など)の書き換えで不正確な出力をすることがあります。そこで、厳密な操作が必要な部分はあらかじめ用意したCLIツールやスクリプトをAIに実行させる「Skill」として定義しています。AIの「推論力」とプログラムの「正確性」を組み合わせたガードレール設計が重要です。
-
継続的な改善と個人への最適化 AIへの指示(プロンプト)に完成形はありません。開発者が個人の好みに合わせて設定を拡張できる仕組みや、チーム全体でインストラクション(指示書)を改善し続ける文化を構築しています。
新人エンジニアへのメッセージ: AIエージェントを使いこなすコツは、単に魔法のように使おうとするのではなく、AIが「今、何を知るべきか」「どのツールを使うべきか」を整理してあげる環境設計にあります。AIと協力して高速に「実装→ビルド→テスト」を回すこの手法は、これからの大規模開発におけるスタンダードな姿と言えるでしょう。
引用元: https://techblog.lycorp.co.jp/ja/20260119a
本記事は、パラメータサイズ100M以下のTransformerモデル学習や、複数GPU環境の知見を得るために、最新のハイエンドGPU「GeForce RTX 5090」を2枚搭載した機械学習用PCを自作した記録です。2025年末から2026年初頭にかけてのパーツ選定や、ハイエンド構成特有の注意点が詳細に解説されています。
最大の課題は「電力」と「排熱」です。RTX 5090は1枚で最大575Wを消費するため、2枚構成では1600W以上の電源が必須となります。しかし、日本の一般的な100Vコンセント(最大1500W)では電力が不足するため、著者は壁コンセントを200V/20Aへ変更する電気工事を行い、1650WのATX 3.1対応電源を採用しました。
GPUの物理的な設置も工夫が必要です。近年のGPUは厚みが増しており、空冷モデルを2枚並べて挿すのは困難です。今回は「空冷モデル」と「簡易水冷モデル」を1枚ずつ組み合わせることで、物理的な干渉を回避しつつ冷却性能を確保しています。マザーボードには、PCIe 5.0 x8/x8動作が可能な「ASUS ProArt X870E-CREATOR」を選定し、巨大なPCケース内で最適なエアフローを構築しています。
その他の構成では、CPUにRyzen 9 9950X(16コア)を採用し、メモリはAI需要による価格高騰の影響を考慮して64GBを搭載。ストレージは、学習時のランダムアクセスを支える8TBの高速NVMe SSDをメインとし、データ読み込みの工夫としてHDDを併用するテクニックも紹介されています。
運用面では、GPUを2枚使うことで学習や推論(vLLM等)の速度が1.8〜2倍向上するという大きなメリットが得られました。一方で、コンシューマ向けGPUはデータセンター向けGPU(H200等)のような高速なNVLinkが廃止されているため、PCIe 5.0 x8による通信がボトルネックとなり、学習手法によっては速度が伸び悩むというマルチGPU特有の課題も語られています。
これからローカルでのAI開発環境を構築しようとする新人エンジニアにとって、ハードウェアの物理的な制約から実効性能の限界までを網羅した、非常に実践的なガイドとなっています。
引用元: https://secon.dev/entry/2026/01/19/100000-rtx5090x2-pc/
本記事は、ワークフロー自動化ツール「n8n」と生成AI(Claude等)を活用し、従業員の多種多様な活動ログから日次レポートとマネージャー向けサマリーを自動生成するシステムを構築した実例紹介です。新人エンジニアにとっても、自動化の可能性と「まずは作ってみる」楽しさを感じられる内容となっています。
1. システムの概要と目的
Slack、Gmail、Googleカレンダー、Asana、Box、Zoomといった各種SaaSから1日分の活動データを取得し、AIに分析させることで「前日の振り返り」と「今日やるべきこと」を毎朝通知します。単なるログの集約ではなく、AIによる「業務分析アシスタント」としてのアドバイスや、マネージャーが組織の状態を一目で把握できるダッシュボード機能を実現しています。
2. 技術的な構成と工夫
- データ収集と加工: APIで取得した生データにはノイズ(広告メールやスタンプ等)や機微情報が含まれるため、フィルタリングと情報の削ぎ落としを行った上でLLMに渡しています。
- インフラの最適化: 当初はn8nのクラウド版を利用していましたが、メモリ不足や実行時間の制約に直面したため、GCP(Google Cloud)上でのセルフホストに移行しました。インフラ構築にはTerraformを活用し、構成案もAIと相談しながら決定しています。
- DB運用: n8nの実行データによるSQLiteの肥大化を防ぐため、成功ログの保存停止や定期的なメンテナンス設定を行い、パフォーマンスを維持しています。
3. プロンプトエンジニアリングの要諦
AI(Claude)への指示は非常に詳細です。「事実に基づかない推測をしない」「Slack独自のマークダウン形式を守る」といった厳格なルールを定義することで、実用的な出力を得ています。特にマネージャー向けには、異常値の検出(会議過多やタスク未完了等)と、それに対する具体的なアクションプラン(1on1の実施内容等)まで提案させる設計になっています。
4. エンジニアとしての学びと展望
筆者はこの構築プロセスを、効率化を追求するゲーム「Factorio」になぞらえ、試行錯誤の楽しさを強調しています。
- ローコードツールの活用: n8nで巨大なワークフローを構築し、まずはクイックに動くものを作る重要性。
- ツールの限界と移行: 処理が複雑化した後は、Go言語などで書き直し、サーバーレス環境(AWS Lambda等)へ移行するという、システム成長に合わせた「適材適所」の判断。
- AIとの共生: ワークフローの生成からエラー修正までAIをフル活用する、現代的な開発スタイル。
「面白そうだからやってみる」という好奇心こそが、複雑な業務課題を技術で解決する原動力であることを示す、非常にポジティブな事例です。
引用元: https://note.cloudnative.co.jp/n/nda20cf9d1051
(株式会社ずんだもんは架空の登場組織です)