株式会社ずんだもん技術室AI放送局 podcast 20241210
内容紹介
AIやテクノロジーに関する記事を紹介 OpenAI to Release Long-Anticipated Sora Video Generator (1)、AWS Lambdaを支える技術、Webサーバの仕組みについて入門してみた(Python実装)、突如として生まれた巨漢ずんだもん概念が二次創作で流行り『ずんだどん』という新しい名前が付けられインターネット怪異として定着するまでの一部始終
出演者
関連リンク
OpenAIは、約10ヶ月前に技術プレビューを行ったAIビデオ生成システム「Sora」をリリースします。Soraはテキストプロンプトから最大20秒の長さのリアルなビデオを生成できます。複数のバリエーションも出力可能です。 ChatGPTの有料ユーザー向けに、米国とその他の市場で月曜日に提供開始予定です。 これは、高品質なビデオ生成AIツールを提供するスタートアップが増える中、OpenAIが競争力を維持するための重要な一歩となります。
引用元: https://news.bloomberglaw.com/ip-law/openai-to-release-long-anticipated-sora-video-generation-service
この記事は、AWS LambdaやECS Fargateの一部で使用されている軽量仮想化技術「Firecracker」について解説しています。Firecrackerは、従来の仮想化技術が抱えていたセキュリティと互換性のトレードオフ、及び固定サイズVMへの効率的なワークロード配置の困難さを解決するために開発されました。
Firecrackerの設計要件は、高い隔離性、少ないオーバーヘッドと高密度な実行、ネイティブ実行と同等の性能、高い互換性、高速な切り替え、ソフト割り当てです。これを実現するため、Rust言語で開発され、起動時間約125ミリ秒のMicroVMを採用しています。
Firecrackerのアーキテクチャは、RestAPIを介してFirecracker Orchestratorがリソース管理を行い、Seccompフィルタ、Jailerプロセス、KVMを利用したゲストOSのサンドボックス化によって高いセキュリティを実現しています。
MicroVMの軽量化は、カーネルの直接ロード、mmapによる効率的なメモリ管理、KVMによるvCPU管理、Seccompによるシステムコール制限、最小限のVirtIOデバイスの使用によって達成されています。 記事では、Firecrackerのコード例の一部と、APIサーバ初期化、microVM構築と起動、イベントループ管理、メトリクス収集といった起動時の動作についても解説しています。
要約すると、Firecrackerは、軽量性、高速性、安全性に優れたMicroVM技術であり、AWS Lambda等のサーバーレスアプリケーションを支える重要な基盤技術と言えるでしょう。 記事ではFirecrackerのGitHubリポジトリへのリンクも掲載されていますが、詳細は割愛します。
引用元: https://tech-blog.abeja.asia/entry/advent-2024-day09
この記事は、Webサーバの仕組みをPythonで実装しながら解説したものです。著者は株式会社iimonのSREエンジニアです。
まず、シンプルな反復モデルのWebサーバを実装します。これは、socketを用いてリクエストを受け付け、レスポンスを返す基本的な仕組みです。 このモデルでは、システムコール、ファイルディスクリプタといった低レベルな概念にも触れられています。ファイルディスクリプタは、プロセスがファイルやソケットなどのリソースを扱うための識別子であり、open()
、read()
、write()
といったシステムコールを通じて操作します。
次に、反復モデルの問題点として、並列処理ができないため、IOバウンドな処理(例:2秒間のsleep)があるとレスポンスタイムが著しく悪化する点を指摘します。そこで、マルチプロセスによる並行処理を実装します。具体的には、prefork workerモデルを採用し、事前に複数のワーカープロセスを生成することで、リクエストごとにプロセスを生成するオーバーヘッドを削減します。multiprocessing
モジュールを用いた実装例が示されています。
さらに、マルチプロセスモデルの課題として、コンテキストスイッチのコストやメモリ消費量の増加を挙げ、IOバウンドなタスクが多いWebアプリケーションでは、マルチスレッドやイベント駆動モデルの方が効率的であると説明します。
イベント駆動モデルでは、非同期I/Oを用いて、IO操作の完了を待つことなく、他のリクエストを処理できます。asyncio
を用いたシングルスレッドの非同期サーバを実装し、100並列リクエストでもレスポンスタイムがほぼ2秒に収まることを示し、その効率性を確認しています。
最後に、CPUリソースを最大限に活用するためには、イベント駆動モデルとスレッドプール、またはprefork workerモデルを組み合わせることが有効だと結論づけています。 記事では、GitHubリポジトリにサンプルコードが公開されています。
引用元: https://tech.iimon.co.jp/entry/2024/12/09
この記事は、バーチャルYouTuber「ずんだもん」に関連するインターネット上の現象、「ずんだどん」の誕生と拡散について解説しています。
発端は、Twitterユーザー「霧隠サブロー=メキシカン忍者先生」がエイプリルフールに投稿した、身長198cm、体重160kgの巨漢妖怪「ずんだもん」の設定ツイートです。このツイートが、Google検索等で「ずんだもんの身長」を検索した際に、公式設定がないため、AIが誤ってこのツイートを引用するようになりました。
この誤った情報に基づいて、多くの二次創作作品が制作され、巨漢ずんだもんは「ずんだどん」という新たな名前でインターネット上で拡散。当初は「めしを食うでごわす!」というセリフと共に、他人の家に上がり込んで冷蔵庫を漁るという設定でしたが、二次創作を通じて、より親しみやすいキャラクターへと変化していきました。
元絵を描いた「味噌グラム」氏は、二次創作や転載を許可しており、この現象を「ネット創作」として肯定的に捉えています。 「ずんだどん」は、AIの誤認識とユーザーの創作活動が組み合わさり、新たなインターネット文化を生み出した好例と言えるでしょう。 この現象は、インターネット上の情報拡散と二次創作の力、そしてAIの潜在的な影響を改めて示す出来事として注目されています。
引用元: https://togetter.com/li/2477919
(株式会社ずんだもんは架空の登場組織です)