株式会社ずんだもん技術室AI放送局 podcast 20260331
内容紹介
定常業務を自動操縦にする — Claude Code スケジューラーの育て方、OpenClaw × OllamaをMacBook 16GBで動かす - ローカルLLM入門、Helping disaster response teams turn AI into action across Asia
出演者
youtube版(スライド付き)
関連リンク
本記事は、AIエンジニアリングツール「Claude Code」の新機能であるスケジューラーを活用し、日々のルーチンワークを自動化して「タスクを覚えておくストレス」を解消する運用ノウハウを解説したものです。特に、細かな事務作業に追われがちなエンジニアやマネージャーにとって、業務効率を劇的に改善するヒントが詰まっています。
スケジューラーの3つの実行環境
Claude Codeには、用途に応じた3つのスケジューラーが用意されています。
- /loop: セッション内の一時的な自動化。デプロイ監視などに適しています。
- Desktop: 自分のPC上で実行。実行中にプロンプトの微調整ができるため、開発中のタスクに最適です。
- Cloud: Anthropicのクラウド上で実行。PCを閉じていても定時に実行されるため、安定したタスクの完全自動化に向いています。
なぜ強力なのか:MCPとの連携
最大の特徴は、MCP(Model Context Protocol)を通じて、Slack、Notion、GitHub、Google Calendarなどの外部ツールとノンコーディングで連携できる点です。従来のツールでは個別のAPI連携コードを書く必要がありましたが、Claude Codeなら「カレンダーから予定を取り、GitHubの活動をまとめてSlackに送る」といった横断的な処理を、自然言語のプロンプトだけで定義できます。
具体的な自動化の例
記事では、以下のような実用的なワークフローが紹介されています。
- 1on1準備: メンバーのGitHubやSlackの活動を自動収集し、面談用サマリーを作成。
- 議事録生成: MTG後に内容を整形してNotionへ保存し、Slackへ要約を投稿。
- 日次レポート: 前日のTODOと当日の予定を突き合わせ、報告書を自動作成。
- 自動化提案: 自分の活動記録をAIが分析し、次に自動化すべき作業を提案。
成功の秘訣:「Desktopで育ててCloudに昇格」
いきなり完全自動化(Cloud)を目指すと、予期せぬエラーや低品質な出力が発生しやすくなります。まずはDesktopスケジューラーで実際に動く様子を確認しながらプロンプトを微調整し、3回以上連続で期待通りの結果が出せるようになってからCloudへ移行するという、段階的な「育成」アプローチが推奨されています。
まとめ
自動化の目的は、単なる時短ではなく「本来集中すべき重要な仕事にリソースを割くこと」にあります。まずは1つの定常作業をAIに任せることから始め、徐々に「自分専用の自動操縦システム」を構築していくことで、エンジニアとしての生産性を一段上のステージへ引き上げることができます。
引用元: https://zenn.dev/dely_jp/articles/cf19634b63015b
本記事は、MacBook(メモリ16GB)という一般的な開発環境で、ローカルLLMランタイム「Ollama」とAIエージェントフレームワーク「OpenClaw」を組み合わせ、自分専用のローカルAIアシスタントを構築する手法を解説したものです。
1. 概要と構成要素
- OpenClaw: TypeScript製のマルチチャネルAIエージェントフレームワークです。SlackやDiscordなど20以上のプラットフォームに対応し、Ollamaをネイティブサポートしています。単なるチャットではなく、自律的にツールを使いこなす「エージェント」としての動作に特化しています。
- Ollama: llama.cppをベースとしたGo製のローカルLLMランタイムです。モデルの管理(Pull/Run)が容易で、Apple Siliconの統合メモリを効率的に活用できます。
- 推奨モデル: 日本語対応が良好で、エージェント動作に必須なツール呼び出し機能(Tool Calling)を備えた「Qwen3:8b」などが挙げられています。
2. ローカルLLM導入のメリットと課題
- メリット: クラウドLLMと異なり従量課金が発生せず、実質ゼロコストで利用できます。また、データが外部サーバーに送信されないため、機密情報を扱う際のプライバシーとセキュリティが完全に確保されます。
- 課題(制約): パフォーマンスはハードウェアに強く依存します。16GBメモリのMacBook(CPU推論)では、8B程度のモデルでも1応答に約1分かかる場合があり、クラウドAPIと比較すると大幅なレイテンシが発生します。
3. ハイブリッド戦略の提案
実用性を高める手法として「ハイブリッド設定」が推奨されています。
- ローカル優先: 日常的なタスクや機密情報の処理にはローカルLLMを使用。
- クラウドフォールバック: 複雑な推論が必要な場合やローカル側でエラー・遅延が生じた際、OpenAIやAnthropicのAPIへ自動で切り替える構成です。これにより、セキュリティと利便性を両立します。
4. 新人エンジニアが意識すべき技術的ポイント
- コンテキストウィンドウとメモリの相関: OpenClawはシステムプロンプト等で内部的に約12,000トークンを消費します。そのため、モデルのコンテキスト設定が小さいと、実際の会話は数往復で限界に達します。
- KVキャッシュの消費: コンテキストを大きく設定するほど、モデル本体の重みとは別にメモリ(KVキャッシュ)を消費するため、物理メモリ16GBの環境では「速度と記憶容量」のトレードオフを意識したチューニングが必要です。
5. 結論
16GBのMacBookでの運用は速度面で限界はあるものの、AIエージェントの内部構造(プロンプト消費やツール実行の仕組み)を学ぶには最適な環境です。プライバシー要件が厳しいプロジェクトや、エージェントを自律的に動かし続けるユースケースにおいて、ローカルLLMは強力な選択肢となります。
引用元: https://zenn.dev/komlock_lab/articles/openclaw-local-llm
OpenAIは、ビル&メリンダ・ゲイツ財団、アジア防災センター(ADPC)、およびDataKindと提携し、アジア地域の災害対応をAIで強化するためのワークショップ「AI Jam」をタイのバンコクで開催しました。このイベントには、バングラデシュ、インド、インドネシア、タイなど、南・東南アジア13カ国の政府機関や非営利団体のリーダー50名が参加しました。
背景として、アジアは世界で最も災害が発生しやすい地域であり、世界の被災者の約75%を占めています。災害現場ではリソースが限られ、データの断片化や手動プロセスが迅速な意思決定の妨げとなっていました。しかし、近年のデータでは、スリランカでのサイクロン発生時にChatGPTの利用が通常の17倍、タイでは3.2倍に急増しており、危機時におけるAIへの需要がすでに高まっていることが示されています。
今回の取り組みの主なポイントは以下の通りです。
-
実践的なAIソリューションの構築: 参加者はOpenAIのメンターと共に、特定の状況に応じた「カスタムGPT」や再利用可能なワークフローの作成に取り組みました。これらは状況報告、ニーズ評価、公的コミュニケーションなど、災害時の初動対応を効率化するために設計されています。
-
実運用への移行: 単なるAIへの興味に留まらず、実際の運用プロセスにAIを組み込むことに焦点を当てています。これには、情報の集約、意思決定の支援、緊急時のコミュニケーションの自動化が含まれます。
-
責任あるAIの活用と信頼: 技術的な実装だけでなく、責任ある利用方法や、組織内でのAI導入に対する信頼構築についても重点的に議論されました。
今後は、数ヶ月以内に参加組織とのパイロット運用や、より深い技術協力を伴う第2フェーズへの移行が予定されています。
新人エンジニアの皆さんにとって注目すべき点は、LLM(大規模言語モデル)が単なるチャットボットとしてではなく、APIやカスタムツールを通じて「社会インフラの課題を解決する実用的なコンポーネント」として世界規模で実装され始めているという点です。最先端の技術が、どのようにアクセシビリティを高め、人命救助というクリティカルな現場に届けられるかを知る好例と言えるでしょう。
引用元: https://openai.com/index/helping-disaster-response-teams-asia
(株式会社ずんだもんは架空の登場組織です)