株式会社ずんだもん技術室AI放送局 podcast 20250617
内容紹介
Metas Llama 3.1 can recall 42 percent of the first Harry Potter book、プライドも、サンクコストも捨てろ「健康診断」しないエンジニアは死滅する - エンジニアtype 転職type、Groq on Hugging Face Inference Providers 🔥、「ずんだもん」から生まれた派生キャラクター「ずんだどん」1/12可動フィギュア化が決定。衣装は布製。めしを喰うでごわす!!
出演者
関連リンク
AIモデルの著作権侵害訴訟が増える中、Meta社の主要LLMであるLlama 3.1の「記憶」能力に関する興味深い研究が注目されています。これは「AIモデルが元の学習データをそのまま出力してしまうことがあるのか?」という問題に深く関わっています。
スタンフォード大学などの研究チームが、Llama 3.1 70Bモデルを含むいくつかのモデルを調査したところ、驚くべき結果が発表されました。研究によると、Llama 3.1 70Bは『ハリー・ポッターと賢者の石』の最初の本のおよそ42%を、元の文章そのままに再現する能力があることが分かりました。これは、モデルが書籍の内容を高い精度で「記憶」していることを示唆しています。Llama 1 65Bが同じ本をわずか4.4%しか記憶していなかったのと比較すると、Llama 3.1ではその記憶能力が大幅に向上しています。また、人気のある書籍(例:『ホビット』や『1984年』など)ほど、Llama 3.1が内容を記憶している傾向があることも分かりました。
では、どのようにモデルの記憶能力を測ったのでしょうか?研究者たちは、モデルが次にどのような「単語の断片」(トークン)を生成するか、その確率を計算する手法を用いました。この確率を繋ぎ合わせることで、50個のトークンが特定の文章とどれくらい一致するかを、実際にモデルに生成させずに推定することが可能になりました。これにより、非常に少ない確率でしか出ないような特定の文章も効率的に分析できるようになりました。
この研究結果は、著作権訴訟に大きな影響を与える可能性があります。AI企業はこれまで「モデルは単に言葉のパターンを学習するだけで、元のデータをコピーするわけではない」と主張してきましたが、Llama 3.1が書籍の大部分を再現できる事実は、この主張を困難にします。特に、「フェアユース」(公正利用)という著作権の考え方にも影響が出そうです。Google Booksの事例では、書籍からごく一部しか出力しない点がフェアユースと認められましたが、Llama 3.1はより多くの部分を再現できるため、議論が複雑化します。
さらに、Llamaのようにモデルの内部構造(重み)を公開している「オープンウェイトモデル」が、そうでない「クローズドウェイトモデル」に比べて、法的に不利になる可能性も指摘されています。オープンウェイトモデルでは、今回の研究のように内部の挙動を詳しく分析できるため、著作権侵害の証拠が見つかりやすいためです。これはAI開発のオープンな共有を阻害する可能性があり、今後の業界動向に注目が集まります。この研究は、AI技術の発展と著作権保護のバランスについて、重要な示唆を与えています。
引用元: https://www.understandingai.org/p/metas-llama-31-can-recall-42-percent
VR開発者であるナル先生こと近藤義仁氏が、AIの発展がエンジニアのキャリアにどう影響するかについて語っています。
AI時代において、ソフトウェアエンジニアの仕事が完全になくなるわけではありませんが、その役割は大きく変化するとナル先生は指摘します。特にAIを導入しにくい一部の業界では人間エンジニアが残り、Web系の分野ではAIによる代替が進むでしょう。AIの能力は急速に進化しており、かつてのような「職人気質」でプライドが高く、人間関係が難しいタイプのエンジニアは、AIの圧倒的なスピードと人間的な特性を兼ね備えた人材に取って代わられる可能性があります。
この変化の時代を生き抜くために最も重要なのは、「プライド」や「これまでの投資(サンクコスト)」を捨てて、新しい技術、特にAIを常に学び続ける姿勢だとナル先生は強調します。AIの進化は非常に速く、数年前の常識はあっという間に通用しなくなるため、毎日AIの最新ツールや機能を触り、その動向をチェックする「技術的な健康診断」が不可欠です。ナル先生自身も、朝4時に起きてX(旧Twitter)でAI情報を収集・発信し、将来的には自身のXログを学習させたローカルLLMを動かすことで「自分年金」を構築する計画を語っています。
今後は、AIエージェントを大量に束ねて指示できる「オーケストレーション」能力を持つ人材が非常に価値を持つ時代になります。また、AIが物理的な作業など、自身ではできないことを人間に指示する「HaaS(Human as a Service)」という働き方も登場するかもしれません。これは、組織に属する従来のサラリーマンという概念が崩壊し、個人のスキルと「役割」が重要になる、より多様で自由な働き方が広がる「ユートピア」な未来を示すとナル先生は語ります。
労働がAIに代替されることで、人間は「やりたくないこと」から解放され、余暇が増え、よりクリエイティブな活動に集中できるようになるでしょう。この変化に適応し、常に新しいものに触れ、柔軟な考え方を持つことが、これからのエンジニアにとって最も大切な資質となります。
引用元: https://type.jp/et/feature/28625/
Hugging Faceが、AIモデルの超高速推論を提供する「Groq(グロック)」を公式のインファレンスプロバイダーとして追加しました。これは、AIモデルを動かす(推論する)際に、より多様で高性能な選択肢が増えたことを意味し、特に大規模言語モデル(LLM)を使う開発者にとって朗報です。
Groqの最大の強みは、彼らが独自に開発した「LPU™(Language Processing Unit)」というプロセッサです。これは、LLMのような計算量の多い処理を高速に、そして低遅延で実行するために特化して設計されています。一般的なGPU(グラフィックボード)では苦手とする、連続した処理の速さに優れており、リアルタイム性が求められるAIアプリケーションに特に適しています。例えば、チャットボットのように「すぐに返答が欲しい」場面で、その真価を発揮します。
今回の連携により、Hugging Face Hubで提供されている多くのオープンソースLLM(MetaのLLama 4やQwenのQwQ-32Bなど)を、GroqのLPUの速度で手軽に利用できるようになりました。これは、モデルの性能を最大限に引き出しつつ、応答速度が重要なアプリケーションを開発する際に非常に役立ちます。
Hugging Face Hub上での利用はとても簡単です。ウェブサイトのUIから、またはPythonやJavaScriptのSDK(開発キット)を使って、Groqの推論APIを利用できます。ユーザーは自分のGroq APIキーを使う「カスタムキー」方式か、Hugging Face経由で認証・課金を行う「Hugging Faceルーティング」方式のどちらかを選べます。Hugging Faceルーティングの場合、追加料金なしでプロバイダーの標準料金のみが適用され、Hugging FaceのPROユーザーには毎月無料のインファレンスクレジットも提供されます。
この連携により、新人エンジニアの方々も、最先端の高速AI推論インフラをより身近に感じ、多様なAIモデルの活用や新たなアプリケーション開発に挑戦しやすくなるでしょう。推論速度はユーザー体験に直結するため、今回のGroqとの連携は、より良いAIサービスを生み出すための重要な一歩と言えます。
引用元: https://huggingface.co/blog/inference-providers-groq
人気キャラクター「ずんだもん」の派生キャラ「ずんだどん」の1/12スケール可動フィギュア化が決定しました。この「ずんだどん」は、「ずんだもん」に関するユニークな嘘投稿から誕生した異色のキャラクターです。本来のずんだもんとは異なる巨漢のビジュアルが特徴で、今回の立体化は関係者の許諾を得て実現しました。衣装は布製で、現在監修中。完成が待ち遠しいですね!
引用元: https://news.denfaminicogamer.jp/news/250616o
(株式会社ずんだもんは架空の登場組織です)