株式会社ずんだもん技術室AI放送局 podcast 20260106
内容紹介
2025 JavaScript Rising Stars、Introducing Falcon-H1-Arabic: Pushing the Boundaries of Arabic Language AI with Hybrid Architecture、ArrowIdeative-13b-instruct-ZERO-llm-jpについて
出演者
youtube版(スライド付き)
関連リンク
2025年のJavaScriptエコシステムを振り返る「JavaScript Rising Stars」の第10回記念版が公開されました。この1年間で最も勢いのあったプロジェクトをGitHubのスター獲得数に基づきランキング形式で紹介しています。新人エンジニアの方にとっても、現在のフロントエンドやバックエンドの潮流を把握するのに最適な資料です。
1. 2025年の主役:AIエージェントとワークフローの爆発 今年の総合1位は、ワークフロー自動化プラットフォームの「n8n」です。1年間で11万以上のスターを獲得するという異例の記録を樹立しました。単なるチャットボットの時代は終わり、AIが自律的にタスクを遂行する「AIエージェント」や、それを制御する「ワークフローエンジン」へと関心が移っています。
2. フロントエンド:Reactの再燃とUIの新機軸 フレームワーク部門ではReactが首位を奪還しました。React 19のリリースや、React Server Components(RSC)によるサーバー側へのシフトが大きな議論を呼びました。UI関連では、もはや定番となった「shadcn/ui」が2位を維持。さらに、美しいアニメーションコンポーネント集の「React Bits」が3位にランクインするなど、デザインの質と開発効率の両立が求められています。
3. ツールチェーン:Bunの躍進とTypeScriptの進化 ツール部門では「Bun」が1位を獲得しました。驚くべきニュースとして、Bunの開発チームがAI企業のAnthropicに買収されたことが挙げられます。これにより、AIエージェントを実行する基盤としてのJavaScript実行環境の重要性が増しています。また、MicrosoftがTypeScriptをGo言語で書き直している(TypeScript 7.0への布石)という発表もあり、ビルド速度の劇的な向上が期待されています。
4. バックエンドとモバイルの新たな波 バックエンドでは、APIやジョブ、AIエージェントを一つの仕組みで扱える「Motia」が初登場で1位となりました。モバイル部門では、React Nativeを抑えてSnap社の「Valdi」やByteDance社の「Lynx」といった、Web技術を使いつつネイティブ性能を極限まで引き出す新興フレームワークがスターを集めました。
5. セキュリティへの警鐘 革新の一方で、エコシステムの脆弱性も浮き彫りになりました。RSCに関連する脆弱性「React2Shell」や、npmを標的とした大規模なサプライチェーン攻撃が発生しました。新人エンジニアは、便利なライブラリを使うだけでなく、依存関係の監査やセキュリティ意識を持つことが不可欠になっています。
2026年に向けては、AIエージェントをいかに使いこなし、複雑化するサーバー・クライアントの境界線を正しく理解することが、エンジニアとしての重要なスキルになるでしょう。
引用元: https://risingstars.js.org/2025/en
アラブ首長国連邦の技術革新研究所(TII)が、アラビア語に特化した最新のLLMシリーズ「Falcon-H1-Arabic」を発表しました。本モデルは、従来のTransformerと、長文処理に優れた次世代アーキテクチャ「Mamba(状態空間モデル)」を融合させたハイブリッド構成を採用しており、アラビア語NLPの新たなスタンダードを確立しています。
1. 革新的な「ハイブリッド・アーキテクチャ」
最大の特徴は、MambaとTransformerのアテンション機構を各ブロック内で並列に実行し、出力を融合させている点です。これにより、Mambaの強みである「長いシーケンスに対する効率的なスケーラビリティ(処理の速さ)」と、Transformerの強みである「精密な推論能力」を両立しました。特にアラビア語のような複雑な語形変化を持つ言語において、長文の一貫性と推論性能を大幅に向上させています。
2. 巨大なコンテキストウィンドウの実現
前モデルの32Kから飛躍的に進化し、3Bモデルで128K、7Bおよび34Bモデルでは最大256Kトークン(約20万語分)の入力を処理可能です。これにより、数百ページの技術文書や法務資料、複数の小説などを一度に読み込めるようになり、ドキュメント全体の深い分析や高度な対話が可能になります。
3. 多様なアラビア語方言とデータ品質へのこだわり
学習データ(約3000億トークン)は、標準的なアラビア語(MSA)だけでなく、エジプト、レバント、湾岸諸国などの主要な方言もカバーするように構築されました。また、コード(プログラミング)やSTEM領域の能力を維持するため、多言語データもバランスよく配合されています。
4. モデルラインナップと実力
用途に合わせて3つのサイズが提供されています。
- 3B: エッジデバイスや高速なエージェント用。リソース制限がある環境でも高い効率を誇ります。
- 7B: 実用的な汎用モデル。企業のチャットボットやドキュメント要約に最適です。
- 34B: フラッグシップモデル。ベンチマークではLlama-3.3-70Bといった遥かに巨大なモデルを凌駕するスコアを記録しています。
新人エンジニアにとっては、特定の言語ドメインに特化しつつ、「Mamba」という最新の理論を実用レベルで統合した、技術的トレンドの最先端を行く非常に興味深い事例です。
引用元: https://huggingface.co/blog/tiiuae/falcon-h1-arabic
本記事は、日本語ベースモデル「llm-jp-3.1-13b」に対し、SFT(教師あり学習)を一切行わず、GRPO(Group Relative Policy Optimization)という強化学習のみで事後学習を行った純国産LLM「ArrowIdeative-13b-NeoBase-ZERO-llm-jp」の開発レポートです。これは世界初の「GRPO単独の事後学習による日本語直感モデル」という意欲的な試みです。
■開発の背景:指示追従モデルの「均質化」への挑戦 従来のLLM開発では、SFTを行うことで指示に従うようになりますが、代償として回答がテンプレート化し、個性や面白さが失われるという課題がありました。開発者はこの「回答の多様性の喪失」の原因がSFTにあるのではないかという仮説を立て、DeepSeekの「R1-Zero」の手法を参考に、SFTを介さず強化学習(RL)のみで指示追従能力を持たせる手法を採用しました。
■データと学習手法 ・使用データ: 「Sarashina2-70b」を用いて生成された合成データセットを活用。Microsoftの「Phi4-mini」で品質を、多様性フィルタリングで類似性を排除し、高品質なデータを選別しています。 ・報酬設計: 「チャットテンプレートの遵守」と「回答品質(リワードモデルのスコア)」というシンプルな報酬系を構築。学習が進むにつれ、RLHF(人間のフィードバックによる強化学習)に近い高い完成度を実現しました。 ・ハードウェア: NVIDIA RTX 5090とRTX 4060tiという構成で学習されており、個人や小規模チームでも最新の強化学習手法を実践できることを示しています。
■エンジニアへのメッセージ 本モデルは、ベースモデルの持つ「直感」や「多様性」を残したまま、特定のプロンプトエンジニアリングが有効な「指示追従モデル」として構築されています。「AIの回答がどこも似たり寄ったりでつまらない」という課題に対し、GRPOという最新技術を駆使して技術的な解法を提示した非常に興味深い事例です。
個人開発の規模でも、工夫次第で特定のアルゴリズム(GRPO)を軸にしたスケーラブルなモデル構築が可能であることを証明しており、若手エンジニアにとっても、LLMの新しい学習の在り方を学ぶ上で非常に刺激的な内容となっています。
引用元: https://note.com/holy_fox/n/n976faac80012
(株式会社ずんだもんは架空の登場組織です)