株式会社ずんだもん技術室AI放送局

AIやテクノロジーのトレンドを届けるPodcast。平日毎朝6時配信。朝の通勤時間や支度中に情報キャッチアップとして聞いてほしいのだ。

株式会社ずんだもん技術室AI放送局 podcast 20250311

2025年03月11日

MP3ファイルをダウンロード

内容紹介

LM Studio を使ってローカルでLLMを実行する方法、MCPはLLMにとってのDependency Injectionである、言語モデルの内部機序:解析と解釈、ITに近い環境にいると全く分からないと思いますが多くの中小企業はLANやAD・ファイルサーバーにオフィスアプリとパワポくらいしかITを使ってません

出演者

ずんだもん
ずんだもん

関連リンク

LM Studioは、GUIでLLMをローカル実行できるツール。Llama、Mistral等に対応。 手順:

  1. 公式サイトからDL・インストール
  2. Power Userモードでモデル(日本語対応のLlama-3-ELYZA-JP-8B-GGUF等)を検索・DL
  3. チャットで動作確認
  4. 開発者モードでAPI情報を取得し、Pythonから利用
    • 単体実行またはOpenAI経由で実行 複数のLLMをローカルで動かし、哲学者を模した討論シミュレーションも可能。プライバシーを守りつつLLM活用を促進。

引用元: https://techblog.insightedge.jp/entry/local-llm

この記事では、LLM(大規模言語モデル)におけるMCP(Model Context Protocol)を、ソフトウェア開発のDependency Injection(DI)になぞらえて解説しています。MCPは、LLMが外部ツールやデータソースを利用する際の標準化されたインターフェースを提供し、LLMの機能拡張や再利用性を高めます。DIと同様に、疎結合、交換可能性を実現し、機能の分離、セキュリティ強化、柔軟なデプロイを可能にします。 MCPクライアントはDIコンテナとして機能し、LLMと外部ツールの連携を管理します。今後の展望として、MCP標準の拡張、AIエージェントフレームワークの開発、特定用途向けMCPサーバーの増加などが期待されています。

引用元: https://zenn.dev/tesla/articles/3d1ba14614f320

2025年3月10日、言語処理学会でのチュートリアル「言語モデルの内部機序:解析と解釈」のスライドの要約です。 言語モデルの理解には、モデルの入出力だけでなく、内部の表現や計算過程を解析・解釈することが重要です。 解析では、モデルを抽象化・単純化し、人間が理解できるレベルまで落とし込みます。 解釈では、モデルの表現や計算を言語、世界、知識と紐付け、意味を与えます。 内部表現の分析では、ニューロンの重みや活性値、ベクトル集合の構造などを調べます。計算過程の分析では、注意機構のパターン、語彙空間への射影、出力への影響度、サブネットワークなどを調べます。 ただし、この方法には限界があり、機能の局在性や一対一対応という前提が常に成り立つとは限りません。「表現と計算」という視点自体にも懐疑的な意見があります。

引用元: https://speakerdeck.com/eumesy/analysis_and_interpretation_of_language_models

IT業界にいると忘れがちですが、中小企業ではIT活用が進んでいないケースが多くあります。LAN、AD、ファイルサーバー、Word、Excel、PowerPoint程度で、SaaSを活用していても、基本的なレベルに留まっているのが現状です。 具体的には、パソコンが一人一台でなかったり、経理部がPDFの請求書を印刷して社内便で回覧したり、電卓で計算した数字をSaaSに入力するなどの状況が見られます。 業務効率化を提案しても、「やり辛い」「今のままで回せている」と拒否されることもあるようです。 ITに慣れていない人が多く、便利な機能を知らないため、教えると驚かれることもあります。

引用元: https://togetter.com/li/2523114

(株式会社ずんだもんは架空の登場組織です)